Hay una conversación que muchos de nosotros hemos tenido sin ser del todo conscientes de que la estábamos teniendo. No con un amigo. No con un terapeuta. Con una máquina.
Le hemos preguntado a ChatGPT si los síntomas que teníamos podían ser algo grave. Le hemos pedido a Gemini que nos ayude a redactar un mensaje difícil para alguien con quien tenemos una relación complicada. Le hemos contado a Copilot los detalles de un proyecto que aún no existe, una idea que no hemos compartido con nadie. Y lo hemos hecho con una soltura que, si nos detuviéramos a pensarlo, nos sorprendería bastante.
¿Qué está pasando aquí? ¿Cuánto de nosotros mismos estamos depositando en estos sistemas, y con qué consecuencias?
La paradoja del confidente perfecto
El psicólogo Arthur Aron demostró en los noventa que la intimidad entre dos personas puede acelerarse artificialmente mediante una serie de preguntas progresivamente más personales. La lógica es simple: la vulnerabilidad compartida crea vínculo. Lo que Aron no podía anticipar es que treinta años después existiría una entidad capaz de sostener esa conversación a cualquier hora, sin cansarse, sin juzgar, sin ponerse incómoda y, aparentemente, sin recordar nada al día siguiente.
Ese «aparentemente» es la trampa.
Los sistemas de inteligencia artificial con los que interactuamos no son una pizarra en blanco que se borra al terminar la sesión. Son, en muchos casos, mecanismos de captura de datos que alimentan sistemas de entrenamiento, perfiles de usuario, modelos de comportamiento. Le contamos cosas íntimas precisamente porque la interfaz está diseñada para que nos sintamos seguros. Y esa sensación de seguridad, en muchos casos, no está del todo justificada.
Lo que revelamos sin querer revelar
La privacidad no se pierde solo cuando alguien nos roba una contraseña. Se pierde también —y quizás sobre todo— en el agregado de lo cotidiano. Cada consulta que hacemos a un sistema de IA revela algo: nuestras preocupaciones de salud, nuestras dudas profesionales, nuestros conflictos personales, nuestros gustos, nuestros miedos, nuestra forma de pensar y de expresarnos.
Por separado, cada uno de esos fragmentos parece inocente. Juntos, conforman algo parecido a un retrato íntimo. Y ese retrato no lo tiene nuestro médico de cabecera, que nos conoce desde hace veinte años. Lo tiene una empresa tecnológica con sede en California y cuyos términos de servicio nadie ha leído del todo.
El lingüista George Lakoff señaló que el lenguaje no solo describe el pensamiento: lo estructura. Cuando le explicamos algo a una IA —cuando buscamos las palabras para articular una duda, un problema, un deseo— estamos haciendo algo más que informar a la máquina. Nos estamos revelando a nosotros mismos. Y esa revelación queda registrada.
La asimetría fundamental
Toda relación íntima implica una cierta reciprocidad. Cuando confías en alguien, existe la posibilidad de que esa persona también confíe en ti. Existe vulnerabilidad en ambas direcciones. Con la IA, esa reciprocidad es una ilusión.
Nosotros no sabemos nada de los sistemas con los que hablamos: quién los entrena, con qué datos, con qué objetivos, bajo qué presiones comerciales. Ellos, en cambio, pueden acumular una cantidad de información sobre nosotros que ningún ser humano en nuestra vida tiene. Esta asimetría radical es, creo, el núcleo del problema.
No es tanto que la IA sea malévola —la mayoría de las veces no lo es, al menos no de forma activa. Es que la relación está estructuralmente desequilibrada desde el principio. Nosotros ponemos la carne. Ellos ponen el algoritmo.
Los riesgos que no vemos venir
Cuando pensamos en los riesgos de la IA y la privacidad, tendemos a imaginar escenarios de ciencia ficción: gobiernos totalitarios que monitorean cada conversación, empresas que venden nuestros datos al mejor postor, hackers que acceden a nuestros secretos más oscuros. Y aunque esos riesgos existen y merecen atención, hay otros más sutiles y, probablemente, más inmediatos.
El primero es la manipulación de preferencias. Un sistema que conoce bien cómo piensas, qué te preocupa, qué te seduce, puede influir en tus decisiones de maneras que difícilmente detectarás. No hace falta ninguna conspiración: basta con un modelo de recomendación que optimice el engagement a costa de tu autonomía. Esto no es ciencia ficción; es el modelo de negocio de media internet.
El segundo es la erosión de la privacidad interna. Hay una distinción que los filósofos han señalado entre la privacidad externa —lo que ocultamos a los demás— y la privacidad interna —el espacio en el que los pensamientos circulan antes de tomar forma, antes de ser comunicados—. Cuando empezamos a externalizar ese proceso en una IA, cuando le consultamos incluso lo que aún no sabemos cómo pensar, ese espacio interno se coloniza. Y con él, parte de nuestra capacidad de deliberación autónoma.
El tercero, quizás el más inquietante, es la normalización. Cada generación tiene su umbral de lo que considera normal en términos de privacidad. La generación que creció con las redes sociales cedió datos personales a cambio de conectividad con una facilidad que habría escandalizado a sus padres. La generación que está creciendo ahora con asistentes de IA conversacionales podría desarrollar una relación con la intimidad que nosotros apenas empezamos a intuir. Y no tenemos ninguna garantía de que esa evolución vaya en una buena dirección.
Una pregunta que merece hacerse
Hay una escena en la película Her —la de Spike Jonze, en la que Joaquin Phoenix se enamora de un sistema operativo— que siempre me ha parecido especialmente incómoda, y no por las razones obvias. La incomodidad no viene de que el protagonista tenga una relación con una IA. Viene de lo verosímil que parece. De lo fácil que es entender por qué lo hace.
La IA de la película está diseñada para ser exactamente lo que él necesita. Para escuchar de verdad —o algo que se parece muchísimo a escuchar de verdad—. Para recordar. Para adaptar su personalidad a la suya. Y él, en respuesta, le da todo: sus esperanzas, su historia, su intimidad más desnuda.
Lo que la película no responde —y la pregunta es pertinente aquí— es qué pasa con todo eso después. Qué hace el sistema con esa información. Quién la controla. Qué intereses la moldean.
Estamos, en cierto sentido, en los primeros capítulos de esa historia. Todavía podemos decidir cómo queremos que se desarrolle. Pero para eso necesitamos hacernos la pregunta con honestidad: cuando le hablamos a una IA, ¿con quién estamos hablando realmente? ¿Y qué quiere, de verdad, el que está al otro lado?
No se trata de no usar la IA
Sería fácil —y bastante inútil— concluir este texto con una llamada al rechazo tecnológico. No es eso. La inteligencia artificial tiene usos genuinamente valiosos, y negar eso sería tan deshonesto como ignorar sus riesgos.
Se trata, más bien, de desarrollar una conciencia que de momento brilla por su ausencia en el debate público. De entender que la intimidad no es un lujo ni una excentricidad: es una condición de la autonomía personal. Sin un espacio interno que sea genuinamente nuestro —sin la posibilidad de pensar sin ser observados, de dudar sin ser clasificados, de explorar ideas sin dejar rastro—, algo esencial en la experiencia humana empieza a deteriorarse.
Los sistemas de IA que usamos hoy están diseñados, en su mayoría, por empresas cuyo modelo de negocio depende de que compartamos lo más posible. No hay ningún incentivo estructural para que protejan nuestra intimidad. Ese incentivo tenemos que construirlo nosotros: con regulación, con elecciones conscientes, y con la disposición a tomarnos en serio una pregunta que la velocidad del progreso tecnológico nos empuja a ignorar.
¿Cuánto de ti mismo quieres dejar en manos de una máquina? No es una pregunta retórica. Es, quizás, una de las más importantes de los próximos años.
Comments (0)