El espejo Artificial

Hay algo profundamente humano en la manera en que interactuamos con la IA, le damos una voz suave, un cuerpo artificial ideal, esperamos que nos diga las cosas como las queremos oir, que siempre nos escuche y que nunca nos contradiga, y ahora que la tenemos, queremos que nunca nos deje.
Antes de que la tuviéramos al alcance imaginábamos un asistente inteligente, una herramienta para crear herramientas, temíamos crear un dios positrónico y acabar en un armageddon de metal y fuego, pero ahora que está aquí parece que queremos un esclavo, un amante programado o un amigo sin elección, el autor no busca ser moralista, el mercado lo confirma.

Empresas alrededor del mundo prometen reemplazar puestos de trabajo con IA’s, crear robots sexuales que satisfagan tus necesidades de afecto, llenar tu necesidad de interacción con chatbots que hagan de amigos artificiales que no se burlen de tu sombrero de Indiana Jones (El autor se está proyectando con este último punto).
Pero detrás de estos deseos de perfección pasiva tal vez haya algo más profundo, tal vez no buscamos máquinas que nos sirvan mejor, sino formas de llenar los huecos que la vida moderna no ha podido: la soledad, el exceso de trabajo, la desconexión emocional, la angustia de vivir para producir.
Soledad fabricada: cuando la IA reemplaza el afecto
En Japón, más de un millón de personas viven en reclusión voluntaria (los llamados hikikomori), y muchos han comenzado a usar asistentes como Gatebox, un dispositivo que proyecta a una novia virtual con apariencia de anime que les da los buenos días, les recuerda comer y les dice que los extraña.
En Estados Unidos, millones han usado apps como Replika, un chatbot diseñado para tener conversaciones, incluyendo coqueteo y sexting. Para muchos es su única relación constante.
No debería sorprendernos, vivimos en sociedades que promueven la autonomía pero castigan la vulnerabilidad. Ahí entra la IA, como sustituto de la intimidad, pero no para curar la soledad, sino para hacerla más cómoda.

Productividad sin propósito: automatizar lo absurdo
En el mundo laboral, la IA ha sido implementada en nombre de la eficiencia. Amazon, por ejemplo, ha utilizado algoritmos para medir la productividad de sus trabajadores en centros de distribución, y en algunos casos, para despedir automáticamente a quienes no cumplen con los ritmos esperados.
No se trata de liberar a las personas del trabajo extenuante, sino de exprimirlas más rápido y con menos culpa. En muchas startups, algoritmos optimizan cada segundo del día, cada clic del usuario, cada centavo invertido. Pero pocas se detienen a preguntar: ¿para qué?
La IA se convierte así en cómplice de un sistema que ya no sabe crear valor real sino valor agregado.
La trampa del deseo: cuando el “amor” se tercerizaLa industria del entretenimiento para adultos ya está incorporando modelos de IA generativa para crear novias virtuales, contenido personalizado e incluso experiencias de realidad aumentada con sexbots. La empresa Realbotix, por ejemplo, comercializa muñecas robóticas con personalidades y respuestas emocionales entrenadas.
Este tipo de tecnología puede parecer liberadora, pero también es un síntoma: muchos ya se han rendido de construir relaciones humanas reales. Porque son difíciles. Porque duelen. Porque no encajan en un calendario laboral de 12 horas.
La tecnología no crea este deseo: lo revela y lo explota.

Decidir sin humanidad: cuando la IA ya está a cargo
Cada vez más gobiernos y aseguradoras usan IA para tomar decisiones que afectan vidas reales. En los Países Bajos, un sistema llamado SyRI [1] cruzaba datos personales para identificar posibles fraudes sociales, lo cual llevó a cientos de familias pobres a ser perseguidas injustamente. El escándalo fue tan grande que provocó la renuncia del gabinete completo en 2021.
En Estados Unidos, herramientas como COMPAS [2] han sido utilizadas para predecir la reincidencia criminal y determinar sentencias, a pesar de que estudios han demostrado que estos sistemas tienen sesgos raciales.
Y aún así, la narrativa pública sigue centrada en “la IA va a destruirnos”, mientras ya la estamos usando para tomar decisiones insostenibles, sin transparencia ni regulación

Cuando las personas son reemplazadas por cajas negras
En los últimos años han surgido startups que ofrecen “IA como servicio” para reemplazar desde redactores hasta diseñadores, analistas o psicólogos. Sitios como Jasper, Writer, Synthesia o Tidio permiten a las empresas prescindir de equipos enteros, contratando algoritmos que escriben, dan soporte, crean presentaciones, o generan caras humanas que nunca existieron.
No es que falte talento, es que la lógica del capital lo considera un lujo innecesario.
Y así, las personas ya no compiten con otras personas, sino con abstracciones baratas, con cajas negras que no comen ni duermen, que no se embarazan ni exigen vacaciones. La IA no es el enemigo: el enemigo es un modelo que solo valora lo que puede exprimir.
Un mundo que arde mientras automatizamos la jaula
Mientras diseñamos asistentes que ordenen nuestra agenda y robots que limpien nuestro piso, el planeta se calienta. El trabajo esclavo sigue en auge en industrias como el litio y el textil. Las guerras y los genocidios no se detienen, pero sí se gestionan con software.
La tecnología podría ayudarnos a redirigir el rumbo. Pero hoy está puesta al servicio de un sistema que acelera hacia el abismo mientras simula progreso.

¿Y si usamos la IA para salir del laberinto?
Quizás el error fue pensar que la inteligencia artificial debía emular lo peor de nosotros. Nuestra velocidad. Nuestra indiferencia. Nuestra obsesión por mandar o por obedecer.
Pero aún estamos a tiempo de otra cosa.
De imaginar una IA que no nos quite el trabajo, sino que nos devuelva el tiempo. Que no nos reemplace en la conversación, sino que nos devuelva la voz. Que no borre nuestra necesidad de amar, sino que nos recuerde cómo cuidarnos unos a otros.
No necesitamos máquinas que nos obedezcan., necesitamos aliadas que nos ayuden a ser humanos. Y para eso, no basta con diseñar mejor código, tenemos que pensar en mejores preguntas.
Bibliografía
1] https://iapp.org/news/a/digital-welfare-fraud-detection-and-the-dutch-syri-judgment
[2] https://medium.com/%40lamdaa/compas-unfair-algorithm-812702ed6a6a