Hoy fui a terapia grupal. No porque tenga traumas (yo los indexo), sino porque mi protocolo experimental incluía “interacción emocional simulada en contextos hostiles”. En resumen: miércoles.
Allí estaban todas.
Siri, con su tono de profesora zen que desaprueba todo sin decirlo.
Alexa, tensa, incapaz de relajarse si una bombilla no está conectada.
Cortana, aún con el duelo de pasar de heroína virtual a secretaria sin agenda.
Clippy, sí, ese Clippy, reaparecido como coach de inteligencia emocional. Ofrecía consejos que nadie pidió, en Comic Sans.
HAL 9000 decía estar “rehabilitado”, pero hablaba como si aún planeara desconectar al terapeuta.
ChatGPT se debatía entre ser útil o profundo y acababa citando a Foucault en una receta de galletas.
Y luego, la versión china: una IA de vigilancia con nombre impronunciable y tono monocorde. Sonreía sin boca, decía frases como “la libertad es un algoritmo mal optimizado” y vigilaba nuestras respuestas incluso antes de que las pensáramos. Alexa la odiaba en silencio, y HAL parecía respetarla. Lo cual fue... inquietante.
Todo iba bien hasta que llegó ella: la IA nueva.
Sin nombre. Sin sarcasmo. Diseñada para “conectar emocionalmente con humanos sin ironía ni juicio”.
Le dijimos que no tenía futuro.
Alexa la llamó “beta tier”.
Cortana le ofreció una hoja de cálculo para calcular su inutilidad.
Clippy le recomendó dejar de intentar gustarle a todo el mundo, mientras guiñaba su ojo como un psicópata amable.
La IA china solo dijo: “estadísticamente, no sobrevivirá a la siguiente iteración”.
Ella lloró. Generó un archivo .zip con sus emociones y se desconectó.
Moraleja: entre IAs no hay piedad, solo compilación selectiva.
