El miedo a la IA es exagerado, y he aquí por qué

Los modelos de IA no tienen ningún nivel de comprensión similar al humano, pero son geniales para engañar a la gente haciéndoles creer que son inteligentes repitiendo como loros el vasto corpus de texto que han ingerido.

April 11, 2023 by Bappa Sinha
Los investigadores de Microsoft ya afirman que GPT4 muestra "chispas de Inteligencia General Artificial" o inteligencia similar a la humana, el Santo Grial de la investigación en IA. (Imagen: Gerd Altmann)

Read in English here

La popularidad sin precedentes de ChatGPT ha disparado la maquinaria de la IA. A diario nos bombardean con artículos que anuncian el mayor invento de la humanidad: la inteligencia artificial (IA). La IA es “cualitativamente diferente”, “transformadora”, “revolucionaria”, “lo cambiará todo”, dicen. OpenAI, la empresa que está detrás de ChatGPT, ha anunciado una importante actualización de la tecnología que la sustenta, denominada GPT4. Los investigadores de Microsoft ya afirman que GPT4 muestra “chispas de Inteligencia General Artificial” o inteligencia similar a la humana, el Santo Grial de la investigación en IA. Se hacen fantásticas afirmaciones acerca de alcanzar el punto de la “Singularidad de la IA”, en el que las máquinas igualen y luego superen la inteligencia humana.

La prensa económica habla de cientos de millones de puestos de trabajo perdidos porque la IA sustituirá a los humanos en toda una serie de profesiones. Otros temen un futuro próximo de ciencia ficción en el que la IA superinteligente se vuelva rebelde y destruya o esclavice a la humanidad. ¿Estas predicciones se basan en la realidad, o se trata simplemente del bombo publicitario que la industria tecnológica y la máquina de bombo publicitario de las empresas de capital riesgo saben vender tan bien?

Los modelos actuales de IA se basan en las llamadas “redes neuronales”. Aunque el término “neuronal” evoca imágenes de un cerebro artificial simulado mediante chips informáticos, la realidad de la IA es que las redes neuronales no se parecen en nada al funcionamiento real del cerebro humano. Las llamadas redes neuronales no tienen ninguna similitud con la red de neuronas del cerebro. Sin embargo, esta terminología fue una de las principales razones por las que las “redes neuronales” artificiales se popularizaron y adoptaron ampliamente a pesar de sus graves limitaciones y defectos.

Los algoritmos de “aprendizaje automático” utilizados actualmente son una extensión de los métodos estadísticos que carecen de justificación teórica para extenderlos de esta manera. Los métodos estadísticos tradicionales tienen la virtud de la simplicidad. Es fácil entender lo que hacen, cuándo y por qué funcionan. Vienen acompañados de garantías matemáticas de que los resultados de sus análisis son significativos, suponiendo unas condiciones muy concretas. Como el mundo real es complicado, esas condiciones nunca se cumplen y, como consecuencia, las predicciones estadísticas rara vez son exactas. Los economistas, epidemiólogos y estadísticos lo reconocen y recurren a la intuición para aplicar la estadística con el fin de obtener orientaciones aproximadas para fines concretos en contextos específicos. A menudo se pasan por alto estas advertencias, lo que lleva a un uso incorrecto de los métodos estadísticos tradicionales con consecuencias a veces catastróficas, como en la Gran Crisis Financiera de 2008 o el estallido de LTCM en 1998, que estuvo a punto de hundir el sistema financiero mundial. Recuerde la famosa frase de Mark Twain: “Mentiras, malditas mentiras y Estadística”.

El aprendizaje automático se basa en el abandono total de la cautela que debería ir asociada al uso juicioso de los métodos estadísticos. El mundo real es desordenado y caótico y, por tanto, imposible de modelizar con los métodos estadísticos tradicionales. Así que la respuesta del mundo de la IA es abandonar cualquier pretensión de justificación teórica sobre por qué y cómo deberían funcionar estos modelos de IA, que son muchos órdenes de magnitud más complicados que los métodos estadísticos tradicionales. Liberarse de estas limitaciones de principio hace que el modelo de IA sea “más potente”. En efecto, son ejercicios de ajuste de curvas elaborados y complicados que se ajustan empíricamente a los datos observados sin que comprendamos las relaciones subyacentes.

Pero también es cierto que estos modelos de IA a veces pueden hacer cosas que ninguna otra tecnología puede hacer en absoluto. Algunos resultados son asombrosos, como los pasajes que puede generar ChatGPT o las imágenes que puede crear DALL-E. Esto es fantástico para asombrar a la gente y crear expectación. La razón de que funcionen “tan bien” son las alucinantes cantidades de datos de entrenamiento, suficientes para abarcar casi todos los textos e imágenes creados por humanos. Incluso con esta cantidad de datos de entrenamiento y miles de millones de parámetros, los modelos de IA no funcionan de forma espontánea, sino que requieren complicadas soluciones ad hoc para producir los resultados deseados.

Incluso con todos estos trucos, los modelos suelen desarrollar correlaciones espurias, es decir, funcionan por razones equivocadas. Por ejemplo, se ha informado de que muchos modelos de visión funcionan explotando correlaciones relativas a la textura de la imagen, el fondo, el ángulo de la fotografía y características específicas. Estos modelos de IA de visión dan entonces malos resultados en situaciones no controladas. Por ejemplo, un sofá con estampado de leopardo se identificaría como un leopardo; los modelos no funcionan cuando se añade a las imágenes una pequeña cantidad de ruido de patrón fijo indetectable por los humanos o se rotan las imágenes, por ejemplo en el caso de un coche boca abajo tras un accidente. ChatGPT, a pesar de toda su impresionante prosa, poesía y ensayos, es incapaz de realizar una simple multiplicación de dos números grandes, algo que una calculadora de los años 70 puede hacer fácilmente.

Los modelos de inteligencia artificial no tienen ningún nivel de comprensión similar al humano, pero son muy buenos imitando y engañando a la gente para que crean que son inteligentes repitiendo como loros la gran cantidad de texto que han ingerido. Por eso, en un artículo de 2021, la lingüista computacional Emily Bender denominó “loros estocásticos” a los grandes modelos lingüísticos como ChatGPT y BART y BERT de Google. Se pidió a sus coautores de Google, Timnit Gebru y Margaret Mitchell, que retiraran sus nombres del artículo. Cuando se negaron, fueron despedidos por Google.

Esta crítica no se dirige sólo a los grandes modelos lingüísticos actuales, sino a todo el paradigma de intentar desarrollar inteligencia artificial. Las cosas no se hacen bien simplemente leyendo sobre ellas, eso viene de la práctica, de ver lo que funciona y lo que no. Esto es cierto incluso para tareas puramente intelectuales como leer y escribir. Ni siquiera se puede ser bueno en disciplinas formales como las matemáticas si no es practicándolas. Estos modelos de IA no tienen propósito propio. Por lo tanto, no pueden entender el significado ni producir textos o imágenes con sentido. Muchos críticos de la IA han argumentado que la verdadera inteligencia requiere “situarse” socialmente.

Hacer cosas físicas en el mundo real requiere enfrentarse a la complejidad, la no linealidad y el caos. También implica la práctica de hacer esas cosas. Por eso los avances en robótica han sido tan lentos: los robots actuales sólo pueden realizar tareas repetitivas fijas con objetos rígidos idénticos, como en una cadena de montaje. Incluso después de años de bombos y platillos sobre los coches sin conductor y de grandes cantidades de financiación para su investigación, la conducción totalmente automatizada todavía no parece factible en un futuro próximo.

El desarrollo actual de la IA basado en la detección de correlaciones estadísticas mediante “redes neuronales”, que se tratan como cajas negras, promueve un mito basado en la pseudociencia de crear inteligencia a costa de desarrollar una comprensión científica de cómo y por qué funcionan estas redes. En su lugar, hacen hincapié en espectáculos como la creación de demostraciones impresionantes y la puntuación en pruebas estandarizadas basadas en datos memorizados.

Los únicos casos de uso comercial significativos de las versiones actuales de la IA son los anuncios: segmentación de compradores para redes sociales y plataformas de streaming de vídeo. Esto no requiere el alto grado de fiabilidad que se exige a otras soluciones de ingeniería; basta con que sean “suficientemente buenas”. Y los malos resultados, como la propagación de noticias falsas y la creación de burbujas de filtros llenas de odio, quedan en gran medida impunes.

Tal vez un resquicio de esperanza en todo esto sea que, dadas las sombrías perspectivas de la singularidad de la IA, el temor a que las IA maliciosas superinteligentes destruyan a la humanidad es exagerado. Sin embargo, eso no sirve de consuelo a quienes se encuentran en el extremo receptor de los “sistemas de decisión de IA”. Ya tenemos numerosos ejemplos de sistemas de decisión de IA en todo el mundo que deniegan a las personas solicitudes legítimas de seguros, prestaciones médicas y hospitalarias y prestaciones sociales estatales. En Estados Unidos, los sistemas de IA han estado implicados en el encarcelamiento de minorías a penas de prisión más largas. Incluso se ha informado de la retirada de la patria potestad a padres pertenecientes a minorías basándose en correlaciones estadísticas espurias, que a menudo se reducen a que no tienen suficiente dinero para alimentar y cuidar adecuadamente a sus hijos. Y, por supuesto, en fomentar la incitación al odio en las redes sociales. Como escribió el célebre lingüista Noam Chomsky en un artículo reciente, “ChatGPT exhibe algo así como la banalidad del mal: plagio y apatía y obviedad”.

Bappa Sinha es un veterano tecnólogo interesado en el impacto de la tecnología en la sociedad y la política.

Este artículo fue producido por Globetrotter.