El mundo está en crisis. Esta vez no es el fin de la historia. Es el fin de nuestra historia. Son nuestras palabras, nuestros recuerdos, nuestras culturas las que están por desaparecer. La producción cultural de la humanidad, hoy encerrada en los espacios digitales, avanza hacia su propia destrucción. Esta no es la historia de una superinteligencia al estilo Skynet en Terminator. No estamos atrapados en una Matrix ni en ninguna fantasía futurista. La realidad es mucho más burda, mucho más aburrida que los relatos de la ciencia ficción. Nuestra historia, nuestra humanidad, está siendo sepultada por la mediocridad de un capitalismo que busca en la inteligencia artificial generativa un nuevo impulso para su propia supervivencia.

El relato tecnológico

El término “inteligencia artificial” tiene mucho más que ver con el marketing que con la técnica. Durante años, los especialistas preferían hablar de técnicas específicas como aprendizaje automático, redes neuronales o procesamiento de lenguaje natural para evitar un término tan laxo, cargado de ambigüedad y de expectativas infundadas de los promotores de productos tecnológicos. Esto cambió hace algunos años con la aparición de los grandes modelos de lenguaje de la mano de GPT-3.5. Finalmente, estas empresas tenían un producto que parecía los suficientemente avanzado para hacer todo tipo de promesas futuristas bajo el paraguas del término IA.

La inteligencia artificial, como la quieren mostrar, solo existe en la ciencia ficción. Los grandes modelos de lenguaje (LLM) como GPT, Gemini, Grok, etc son modelos estadísticos. Es decir que predicen que palabra suele venir después de otra. No entienden, no conocen, no tienen conciencia. Simplemente generan texto basado en patrones aprendidos a partir de grandes cantidades de datos. Aunque pueden producir respuestas coherentes, carecen de comprensión real del contenido. Su funcionamiento se basa en correlaciones y probabilidades, no en un verdadero entendimiento del lenguaje o del mundo.

Un gran modelo de lenguaje se entrena a partir de enormes cantidades de texto extraído de internet: libros, artículos, contenidos de redes sociales. Todo ese material se divide en pequeñas unidades llamadas tokens, que son fragmentos de palabras, palabras completas o signos de puntuación. Luego, se entrena una red neuronal para que, dado un grupo de tokens anteriores, aprenda a predecir cuál es el siguiente. Por ejemplo, si el modelo ve la secuencia “el sol brilla en el”, aprende que “cielo” u “horizonte” son opciones mucho más probables que “purgatorio”.

El modelo no entiende el significado de las palabras. Reconoce patrones de uso. Al analizar grandes cantidades de texto, aprende que algunas palabras tienden a aparecer “cerca” unas de otras, no porque tengan sentido para la máquina, sino porque se usan de manera similar en los datos con los que fue entrenado. Una vez terminado este proceso, los modelos son refinados mediante la intervención de trabajadores humanos que corrigen respuestas, evalúan resultados y ajustan la máquina a cambio de monedas. 

Es por esto que estos modelos siempre van a producir una respuesta, no importa si tienen o no la información que se pide. Como se guían por cómo aparecen las palabras en los textos de entrenamiento, siempre encuentran una forma de seguir. Siempre hay un próximo token. El problema es que, cuando esas distancias son mayores, pueden llegar a responder cualquier cosa, aunque sea mentira. Eso es lo que se llama alucinación. Las alucinaciones no son fallas accidentales. Son consecuencias inevitables por la forma en que está diseñada esta tecnología.

Las empresas que están detrás de estos desarrollos buscan implantar una narrativa al usar ciertos términos para referirse a ellos. Hablan de modelos que “piensan” o “deciden”, cuando en realidad sólo calculan probabilidades. Esta antropomorfización es parte de su estrategia para hacer la tecnología más aceptable. Moldean el comportamiento de cada aplicación para que parezca tener una personalidad propia, esto nos lleva a los humanos a sobreestimar sus capacidades y depositar en estos una confianza que no merecen.

Recursos

Detrás del brillo inmaterial del software y los algoritmos, existe una infraestructura gigantesca de servidores. El entrenamiento de cada uno de estos modelos exige un alto consumo energético, y cada consulta individual requiere mucha más energía que una búsqueda de Google o incluso ver un video en YouTube. La magnitud de este gasto es resultado de los cálculos necesarios para predecir qué palabras o frases tienen más probabilidades de aparecer a continuación de otras. Estas operaciones son caras, en términos ambientales y monetarios.

Esta demanda de electricidad se cubre, en gran parte, con fuentes no renovables. Irónicamente, los promotores de la inteligencia artificial prometen un futuro optimizado y sustentable gracias a algoritmos supuestamente eficientes. Afirman que estas herramientas nos llevarían a un mundo sin enfermedades, sin hambre y libre de otras penurias que no son sino productos del mismo sistema del que se benefician.

Estos problemas no pueden atribuirse únicamente a la inteligencia artificial generativa, pero sí reflejan una ampliación del consumo debido a la masificación de su uso. Cada supercomputadora, cada servidor y cada dispositivo que utilizamos depende de componentes físicos como chips de silicio, circuitos integrados, baterías, entre otros. Muchos de los minerales críticos para esta industria como el cobalto, el litio, las tierras raras o el coltán provienen de minas cuyo impacto no sólo es ambiental, sino también social. La minería artesanal en África, por ejemplo, provee una fracción importante de estos materiales. En regiones de la República Democrática del Congo, comunidades enteras trabajan en minas “artesanales”, sin medidas básicas de seguridad, expuestos a sustancias tóxicas y recibiendo salarios miserables que apenas llegan a garantizar la supervivencia.

El auge actual de los modelos predictivos que generan texto, imágenes o videos impulsa una enorme demanda de hardware para entrenarlos y operarlos. Esto implica un mayor consumo de energía, minerales y la mano de obra explotada necesaria para sostener los márgenes especulativos sobre los que apuestan los grandes inversores de estas tecnologías. Hay un costo oculto en cada avance tecnológico, un costo que siempre recae sobre las poblaciones más empobrecidas y sobre la salud del planeta. Estos costos no pueden eliminarse porque son parte estructural del entramado capitalista.

Burbujas

Es así que hoy existen modelos de lenguaje con habilidades lingüísticas muy superiores a cualquier otra tecnología anterior. Sin embargo, por su propio diseño, no son herramientas fiables cuando se trata de obtener información precisa. Esta limitación frena su adopción en tareas críticas. Resulta difícil imaginar que puedan construirse modelos verdaderamente confiables mientras se basen en un enfoque puramente estadístico. Los casos de uso sólidos siguen siendo limitados y concentrados en nichos específicos. En campos que exigen precisión y veracidad su adopción es todavía marginal. En cambio, en el periodismo, por lo menos en la Argentina (Clarín, Infobae), el uso de inteligencia artificial avanza para abaratar costos e inundar los portales de contenidos basura. La potencia técnica de los modelos contrasta con la escasez de aplicaciones reales, la brecha entre lo que prometen sus propagandistas y lo que realmente ofrecen crece cada día mas.

Detrás del entusiasmo que rodea a la inteligencia artificial parece esconderse una burbuja financiera. Empresas como OpenAI (creadora de ChatGPT), a pesar de toda la propaganda, operan con pérdidas multimillonarias. En 2024 registró un déficit de unos 5 mil millones de dólares. Ni siquiera con más de 15 millones de usuarios pagos logra cubrir sus costos. Estas compañías no se sostienen por su rentabilidad, sino que dependen del flujo constante de inversiones especulativas que inflan su valor de mercado. No existe un modelo de negocio real que respalde las fantasías construidas alrededor de estas tecnologías. El auge de la IA generativa no responde a una necesidad genuina, sino a la necesidad del sistema financiero de generar ganancias.

Es por esto que quienes impulsan estas tecnologías promueven la idea de que una inteligencia artificial general (AGI) esta a la vuelta de la esquina. Máquinas capaces de superar la inteligencia humana en todos los ámbitos. Nada de esto es real, es una fantasía proyectada para sostener expectativas de rentabilidad y justificar el flujo constante de inversiones a estas empresas. Pero al mismo tiempo, esa promesa ejerce una atracción poderosa sobre los empresarios que quieren creer en un futuro donde el factor humano pueda ser eliminado o subordinado definitivamente a la lógica del capital.

Desde la Revolución Industrial, el capitalismo busca reducir costos laborales mediante la tecnología. Su objetivo ha sido siempre producir mercancías sin necesidad de trabajadores que exijan condiciones de vida dignas. Los grandes modelos de lenguaje se presentan hoy como la herramienta definitiva para automatizar trabajos cognitivos y creativos. Muchos patrones y empresarios, enceguecidos por promesas que no comprenden del todo, reemplazan trabajadores para maximizar ganancias. Y quienes no son despedidos, quedan sometidos a nuevas formas de explotación. Controlar, corregir y complementar el trabajo de la máquina. Incluso cuando el reemplazo sea parcial, la relación de poder en el trabajo va a terminar reconfigurandose. La automatización del trabajo cognitivo abre nuevas dinámicas de alienación, donde el rol humano se reduce a acatar las órdenes o pulir las sobras que deja la máquina. 

Guerra

Las operaciones políticas y financieras que sostienen el auge de la inteligencia artificial no ocurren en el vacío sino en medio de una competencia geopolítica entre las grandes potencias económicas. China y Estados Unidos están inmersos en una carrera por el liderazgo en IA que se mezcla con las disputas comerciales y de “seguridad nacional”. El control de los recursos para estas tecnologías es un asunto de Estado, ya sea la producción de semiconductores para entrenar los modelos o la extracción de minerales críticos como el litio y las tierras raras que alimentan toda la cadena tecnológica. Asistimos a un reordenamiento del orden global donde la IA y las industrias asociadas (computación en la nube, redes 5G, computación cuántica, etc) son vistas como claves para definir quién podrá proclamarse vencedor.

Durante la primera presidencia de Trump, Estados Unidos restringió la exportación de semiconductores y herramientas de fabricación de chips hacia China. Con Biden, se prohibió la venta de chips de computación avanzada (GPUs) utilizados para entrenar modelos de inteligencia artificial. China respondió con bloqueos de minerales estratégicos y el endurecimiento de su propia cadena de suministros. Ahora la carrera tecnológica se transformó en una guerra económica a cielo abierto. 

El impacto global de estas decisiones aún está por verse. El capital se reordena, los estados se cierran y nuevas alianzas se forman. Cabe pensar que si alguna vez existiera realmente una inteligencia artificial general, una IA capaz de avances a velocidades que son imposibles de imaginar, lo primero que haría el país enemigo sería apuntar sus misiles a esos centros de datos. La nube no existe. Son máquinas, y como tales, pueden ser destruidas. 

Humanidad

Mientras los estados disputan el control de recursos, infraestructuras y algoritmos, el lugar de la humanidad queda cada vez más relegado. Bajo la lógica del Capital, la inteligencia artificial solo busca optimizar, estandarizar y controlar. Lo humano, lo caótico, lo contradictorio, lo creativo, es visto como un error que tiene que ser corregido o eliminado.

Al mismo tiempo, el espacio digital se degrada. La mayoría del contenido en redes sociales ya es generado o amplificado por bots. Cada vez más artículos, imágenes, música y videos son producidos por algoritmos. Los próximos modelos de IA se van a entrenar sobre basura creada por otras máquinas. La internet se convierte en un circuito cerrado de repetición y degradación. La cultura digital desaparece, absorbida por su simulacro.

Una vez que una tecnología es creada, no hay forma de que desaparezca. Estos avances van a continuar, de igual forma que lo están haciendo los avances en robótica. En el medio, el daño que estas herramientas pueden provocar en la humanidad puede ser irreparable. La confianza ciega en la máquina lleva a una incapacidad de pensar, a una incapacidad de imaginar por fuera de la mediocridad estadística. Una vida determinada por algoritmos solo puede repetir lo existente. Tenemos que darnos la oportunidad de imaginar, de cambiar.