Hay una con­ver­sación que muchos de nosotros hemos tenido sin ser del todo con­scientes de que la estábamos tenien­do. No con un ami­go. No con un ter­apeu­ta. Con una máquina.

Le hemos pre­gun­ta­do a Chat­G­PT si los sín­tomas que teníamos podían ser algo grave. Le hemos pedi­do a Gem­i­ni que nos ayude a redac­tar un men­saje difí­cil para alguien con quien ten­emos una relación com­pli­ca­da. Le hemos con­ta­do a Copi­lot los detalles de un proyec­to que aún no existe, una idea que no hemos com­par­tido con nadie. Y lo hemos hecho con una soltura que, si nos detu­viéramos a pen­sar­lo, nos sor­pren­dería bastante.

¿Qué está pasan­do aquí? ¿Cuán­to de nosotros mis­mos esta­mos deposi­tan­do en estos sis­temas, y con qué consecuencias?

La paradoja del confidente perfecto

El psicól­o­go Arthur Aron demostró en los noven­ta que la intim­i­dad entre dos per­sonas puede acel­er­arse arti­fi­cial­mente medi­ante una serie de pre­gun­tas pro­gre­si­va­mente más per­son­ales. La lóg­i­ca es sim­ple: la vul­ner­a­bil­i­dad com­par­ti­da crea vín­cu­lo. Lo que Aron no podía antic­i­par es que trein­ta años después exi­s­tiría una enti­dad capaz de sosten­er esa con­ver­sación a cualquier hora, sin cansarse, sin juz­gar, sin pon­erse incó­mo­da y, aparente­mente, sin recor­dar nada al día siguiente.

Ese «aparente­mente» es la trampa.

Los sis­temas de inteligen­cia arti­fi­cial con los que inter­ac­tu­amos no son una pizarra en blan­co que se bor­ra al ter­mi­nar la sesión. Son, en muchos casos, mecan­is­mos de cap­tura de datos que ali­men­tan sis­temas de entre­namien­to, per­files de usuario, mod­e­los de com­por­tamien­to. Le con­ta­mos cosas ínti­mas pre­cisa­mente porque la inter­faz está dis­eña­da para que nos sin­ta­mos seguros. Y esa sen­sación de seguri­dad, en muchos casos, no está del todo justificada.

Lo que revelamos sin querer revelar

La pri­vaci­dad no se pierde solo cuan­do alguien nos roba una con­traseña. Se pierde tam­bién —y quizás sobre todo— en el agre­ga­do de lo cotid­i­ano. Cada con­sul­ta que hace­mos a un sis­tema de IA rev­ela algo: nues­tras pre­ocu­pa­ciones de salud, nues­tras dudas pro­fe­sion­ales, nue­stros con­flic­tos per­son­ales, nue­stros gus­tos, nue­stros miedos, nues­tra for­ma de pen­sar y de expresarnos.

Por sep­a­ra­do, cada uno de esos frag­men­tos parece inocente. Jun­tos, con­for­man algo pare­ci­do a un retra­to ínti­mo. Y ese retra­to no lo tiene nue­stro médi­co de cabecera, que nos conoce des­de hace veinte años. Lo tiene una empre­sa tec­nológ­i­ca con sede en Cal­i­for­nia y cuyos tér­mi­nos de ser­vi­cio nadie ha leí­do del todo.

El lingüista George Lakoff señaló que el lengua­je no solo describe el pen­samien­to: lo estruc­tura. Cuan­do le expli­camos algo a una IA —cuan­do bus­camos las pal­abras para artic­u­lar una duda, un prob­le­ma, un deseo— esta­mos hacien­do algo más que infor­mar a la máquina. Nos esta­mos rev­e­lando a nosotros mis­mos. Y esa rev­elación que­da registrada.

La asimetría fundamental

Toda relación ínti­ma impli­ca una cier­ta rec­i­pro­ci­dad. Cuan­do con­fías en alguien, existe la posi­bil­i­dad de que esa per­sona tam­bién con­fíe en ti. Existe vul­ner­a­bil­i­dad en ambas direc­ciones. Con la IA, esa rec­i­pro­ci­dad es una ilusión.

Nosotros no sabe­mos nada de los sis­temas con los que hablam­os: quién los entre­na, con qué datos, con qué obje­tivos, bajo qué pre­siones com­er­ciales. Ellos, en cam­bio, pueden acu­mu­lar una can­ti­dad de infor­ma­ción sobre nosotros que ningún ser humano en nues­tra vida tiene. Esta asimetría rad­i­cal es, creo, el núcleo del problema.

No es tan­to que la IA sea malévola —la may­oría de las veces no lo es, al menos no de for­ma acti­va. Es que la relación está estruc­tural­mente dese­qui­li­bra­da des­de el prin­ci­pio. Nosotros ponemos la carne. Ellos ponen el algoritmo.

Los riesgos que no vemos venir

Cuan­do pen­samos en los ries­gos de la IA y la pri­vaci­dad, ten­demos a imag­i­nar esce­nar­ios de cien­cia fic­ción: gob­ier­nos total­i­tar­ios que mon­i­tore­an cada con­ver­sación, empre­sas que venden nue­stros datos al mejor pos­tor, hack­ers que acce­den a nue­stros secre­tos más oscuros. Y aunque esos ries­gos exis­ten y mere­cen aten­ción, hay otros más sutiles y, prob­a­ble­mente, más inmediatos.

El primero es la manip­u­lación de pref­er­en­cias. Un sis­tema que conoce bien cómo pien­sas, qué te pre­ocu­pa, qué te seduce, puede influir en tus deci­siones de man­eras que difí­cil­mente detec­tarás. No hace fal­ta ningu­na con­spir­ación: bas­ta con un mod­e­lo de recomen­dación que opti­m­ice el engage­ment a cos­ta de tu autonomía. Esto no es cien­cia fic­ción; es el mod­e­lo de nego­cio de media internet.

El segun­do es la erosión de la pri­vaci­dad inter­na. Hay una dis­tin­ción que los filó­so­fos han señal­a­do entre la pri­vaci­dad exter­na —lo que ocul­ta­mos a los demás— y la pri­vaci­dad inter­na —el espa­cio en el que los pen­samien­tos cir­cu­lan antes de tomar for­ma, antes de ser comu­ni­ca­dos—. Cuan­do empezamos a exter­nalizar ese pro­ce­so en una IA, cuan­do le con­sul­ta­mos inclu­so lo que aún no sabe­mos cómo pen­sar, ese espa­cio inter­no se col­o­niza. Y con él, parte de nues­tra capaci­dad de delib­eración autónoma.

El ter­cero, quizás el más inqui­etante, es la nor­mal­ización. Cada gen­eración tiene su umbral de lo que con­sid­era nor­mal en tér­mi­nos de pri­vaci­dad. La gen­eración que cre­ció con las redes sociales cedió datos per­son­ales a cam­bio de conec­tivi­dad con una facil­i­dad que habría escan­dal­iza­do a sus padres. La gen­eración que está cre­cien­do aho­ra con asis­tentes de IA con­ver­sa­cionales podría desar­rol­lar una relación con la intim­i­dad que nosotros ape­nas empezamos a intuir. Y no ten­emos ningu­na garan­tía de que esa evolu­ción vaya en una bue­na dirección.

Una pregunta que merece hacerse

Hay una esce­na en la pelícu­la Her —la de Spike Jonze, en la que Joaquin Phoenix se enam­o­ra de un sis­tema oper­a­ti­vo— que siem­pre me ha pare­ci­do espe­cial­mente incó­mo­da, y no por las razones obvias. La inco­mo­di­dad no viene de que el pro­tag­o­nista ten­ga una relación con una IA. Viene de lo verosímil que parece. De lo fácil que es enten­der por qué lo hace.

La IA de la pelícu­la está dis­eña­da para ser exac­ta­mente lo que él nece­si­ta. Para escuchar de ver­dad —o algo que se parece muchísi­mo a escuchar de ver­dad—. Para recor­dar. Para adap­tar su per­son­al­i­dad a la suya. Y él, en respues­ta, le da todo: sus esper­an­zas, su his­to­ria, su intim­i­dad más desnuda.

Lo que la pelícu­la no responde —y la pre­gun­ta es per­ti­nente aquí— es qué pasa con todo eso después. Qué hace el sis­tema con esa infor­ma­ción. Quién la con­tro­la. Qué intere­ses la moldean.

Esta­mos, en cier­to sen­ti­do, en los primeros capí­tu­los de esa his­to­ria. Todavía podemos decidir cómo quer­e­mos que se desar­rolle. Pero para eso nece­si­ta­mos hac­er­nos la pre­gun­ta con hon­esti­dad: cuan­do le hablam­os a una IA, ¿con quién esta­mos hablan­do real­mente? ¿Y qué quiere, de ver­dad, el que está al otro lado?

No se trata de no usar la IA

Sería fácil —y bas­tante inútil— con­cluir este tex­to con una lla­ma­da al rec­ha­zo tec­nológi­co. No es eso. La inteligen­cia arti­fi­cial tiene usos gen­uina­mente valiosos, y negar eso sería tan deshon­esto como igno­rar sus riesgos.

Se tra­ta, más bien, de desar­rol­lar una con­cien­cia que de momen­to bril­la por su ausen­cia en el debate públi­co. De enten­der que la intim­i­dad no es un lujo ni una excen­t­ri­ci­dad: es una condi­ción de la autonomía per­son­al. Sin un espa­cio inter­no que sea gen­uina­mente nue­stro —sin la posi­bil­i­dad de pen­sar sin ser obser­va­dos, de dudar sin ser clasi­fi­ca­dos, de explo­rar ideas sin dejar ras­tro—, algo esen­cial en la expe­ri­en­cia humana empieza a deteriorarse.

Los sis­temas de IA que usamos hoy están dis­eña­dos, en su may­oría, por empre­sas cuyo mod­e­lo de nego­cio depende de que com­par­ta­mos lo más posi­ble. No hay ningún incen­ti­vo estruc­tur­al para que pro­te­jan nues­tra intim­i­dad. Ese incen­ti­vo ten­emos que con­stru­ir­lo nosotros: con reg­u­lación, con elec­ciones con­scientes, y con la dis­posi­ción a tomarnos en serio una pre­gun­ta que la veloci­dad del pro­gre­so tec­nológi­co nos empu­ja a ignorar.

¿Cuán­to de ti mis­mo quieres dejar en manos de una máquina? No es una pre­gun­ta retóri­ca. Es, quizás, una de las más impor­tantes de los próx­i­mos años.