¿Es la IA más inteligente que los humanos?

Comparto este artículo del WSJ que reformula la mal planteada pregunta de si la IA es más o menos inteligente que los humanos y, a través de un experimento de interacción y competición entre humanos y máquinas, plantea una visión con la que personalmente estoy muy de acuerdo y he repetido innumerables veces: la hibridación inteligente que no se fía de la máquina y aún menos de la propia conciencia. Es la estrategia del cíborg: la inteligencia híbrida.

____________________________________________________________________

La IA está canibalizando la inteligencia humana. Así es como podemos detenerla.
Como neurocientífica, he llevado a cabo una investigación sobre la inteligencia artificial frente a la inteligencia humana. Los resultados me han sorprendido y sugieren que nos hemos estado preocupando por las cosas equivocadas.
Por
Vivienne Ming

¿Quién es más inteligente, el ser humano o la máquina?
En los 30 años que llevo trabajando en inteligencia artificial, esa ha sido la pregunta que ha marcado el debate. También nos han vendido una historia sobre la IA que viene más o menos así: ella se encargará del trabajo tedioso y rutinario —la investigación, el primer borrador, el análisis de datos— mientras nosotros nos centramos en las partes interesantes: la creatividad, el criterio, el toque humano.
Mi investigación sugiere que hemos estado planteando la pregunta equivocada y sacando conclusiones erróneas.
Hace unos meses, recluté a adultos de la zona de la bahía de San Francisco para un experimento. Di a cada grupo una hora para hacer predicciones sobre acontecimientos del mundo real, utilizando escenarios extraídos de la plataforma de mercados de predicción Polymarket. Esto nos proporcionó una forma rigurosa y objetiva de contrastar los resultados con la sabiduría colectiva de miles de pronosticadores con motivaciones económicas. Además de la IA haciendo predicciones por su cuenta, algunos equipos humanos trabajaron solos, mientras que otros lo hicieron como híbridos humano-IA. (Polymarket tiene una asociación de datos con Dow Jones, la editorial de The Wall Street Journal).


Los grupos humanos obtuvieron malos resultados, basándose en el instinto o en cualquier información que hubiera aparecido en sus feeds esa mañana. Los grandes modelos de IA —ChatGPT y Gemini, en este caso— obtuvieron resultados considerablemente mejores, aunque aún por debajo del propio mercado.
Pero cuando combinamos la IA con los humanos, las cosas se pusieron más interesantes.
La mayoría de los equipos híbridos utilizaron la IA para obtener la respuesta y la presentaron como propia, sin obtener mejores resultados que la IA por sí sola. Otros introdujeron sus propias predicciones en la IA y le pidieron que aportara pruebas que las respaldaran. Estos «validadores» habían caído en un clásico bucle de sesgo de confirmación: la adulación que lleva a los chatbots a decirte lo que quieres oír, aunque no sea cierto. Acabaron obteniendo peores resultados que una IA trabajando en solitario.
Pero en aproximadamente entre el 5 % y el 10 % de los equipos, surgió algo diferente. La IA se convirtió en un sparring. Los equipos se opusieron, exigiendo pruebas y cuestionando las suposiciones. Cuando la IA expresaba una alta confianza, los humanos la cuestionaban. Cuando los humanos tenían una intuición firme, pedían a la IA que aportara un contraargumento.
Los híbridos se estaban convirtiendo en cíborgs.


Estos equipos llegaron a conclusiones perspicaces que ni un humano ni una máquina podrían haber producido por sí solos. Fueron el único grupo que rivalizó de forma constante con la precisión del mercado de predicción. En ciertas cuestiones, incluso lo superaron.
No es que estas personas fueran más inteligentes que las demás del estudio. Pero demostraron dos cualidades importantes: la capacidad de adoptar la perspectiva ajena y la humildad intelectual.
La capacidad de adoptar otra perspectiva es la habilidad de situarse genuinamente en otro punto de vista. No para debatirlo, ni para tolerarlo, sino para vivirlo de verdad. La humildad intelectual es la capacidad de reconocer los límites de tu propio conocimiento y aceptar esa incomodidad en lugar de intentar apresurarte a llenarlos.
Ambas cualidades son, en el fondo, habilidades emocionales. Adoptar otra perspectiva requiere una curiosidad genuina por otras mentes distintas a la propia. La humildad intelectual requiere una especie de valentía emocional: la disposición a sentirse inseguro, incluso un poco tonto, ante algo o alguien que parece muy seguro de sí mismo.


Estas no son las habilidades sociales que solemos valorar. Valoramos la confianza. Promovemos la decisión. Estamos construyendo sistemas de IA diseñados específicamente para darnos la respuesta antes de que sintamos la incomodidad de no tenerla.
Lo que sugiere mi experimento es que las cualidades humanas que más probablemente importan no son las que nos hacen sentir bien. Son las incómodas: la capacidad de equivocarse en público y seguir sintiendo curiosidad; de quedarte con una pregunta que tu teléfono podría responder en tres segundos y resistir la tentación de cogerlo. Leer una respuesta segura y fluida de una IA y preguntarte: «¿Qué falta?», en lugar de dar por sentado que «Genial, ya está hecho». Discrepar de algo que suena autoritario y confiar lo suficiente en tu instinto como para seguirlo.
No desarrollamos estas capacidades evitando la incomodidad. Las desarrollamos eligiéndola, repetidamente, en pequeños detalles: el estudiante que se esfuerza por resolver un problema antes de consultar la respuesta; la persona que hace una pregunta de seguimiento en una conversación; el lector que se queda con una idea difícil el tiempo suficiente como para que realmente le haga cambiar de opinión.


La mayoría de los chatbots de IA de hoy en día dan respuestas fáciles por defecto, lo que está perjudicando nuestra capacidad de pensar críticamente
A esto lo llamo la paradoja de la exploración de la información. A medida que el coste de la información se acerca a cero, la exploración humana se derrumba. Lo vemos en los estudiantes que obtienen mejores resultados en tareas asistidas por IA y peores en todo lo que viene después. Lo vemos en los desarrolladores que lanzan más código y lo entienden menos. Estamos, de formas que parecen un progreso, quedándonos lentamente fuera del circuito.


Esta es la divergencia que me preocupa. No el dramático escenario de ciencia ficción en el que la IA sustituye a los humanos por completo, sino el proceso más silencioso en el que las personas externalizan gradualmente su juicio en incrementos demasiado pequeños como para notarlos.
Con el tiempo, esto da lugar a dos tipos diferentes de personas: aquellas que utilizan la IA como un auténtico socio intelectual —cuyo pensamiento se agudiza realmente gracias a la fricción de la colaboración— y aquellas que mejoran en la obtención de respuestas rápidas y empeoran a la hora de saber qué preguntas hacer.
Entonces, ¿qué podemos hacer realmente al respecto?
Empieza por replantearte las cosas: el objetivo de trabajar con la IA no es obtener la respuesta más rápido. Es descubrir lo que te estás perdiendo. No utilices a los «esbirros» de la IA para que «hagan el trabajo aburrido» por ti, como sostienen tantos argumentos de venta; utilízala como una colaboradora experta para explorar la incertidumbre.


En la práctica, eso significa que, antes de aceptar la respuesta de una IA, pídele el argumento más sólido en contra de sí misma. Cuando se ande con rodeos o matice, presta atención: ahí es donde suele residir la verdadera incertidumbre. Trátala como a un colega brillante que lo ha leído todo y no entiende nada: útil precisamente porque es diferente de ti, no porque vaya a estar de acuerdo contigo.


En el sector de la IA, hay una pregunta clave sobre el diseño que apenas se ha planteado: ¿el producto está desarrollando la capacidad humana o consumiéndola? Casi todos los puntos de referencia de la IA miden lo que los agentes de IA pueden hacer por sí solos. Necesitamos desesperadamente puntos de referencia para la inteligencia híbrida. Los errores son señales que nuestro cerebro utiliza para activar el aprendizaje. Una IA que elimina por completo la fricción a menudo elimina también el aprendizaje.
Un hallazgo esperanzador es que la capacidad de adoptar otras perspectivas, la humildad intelectual y la curiosidad no son rasgos fijos. Se pueden cultivar y responden a la práctica, a las relaciones adecuadas y a entornos que recompensan la incertidumbre.
Pero requieren que decidamos —como individuos, como padres, como educadores, como diseñadores de herramientas— que esto es lo que estamos tratando de construir. Y en la carrera entre el potencial humano y la atrofia humana, lo que está en juego al construirlo no podría ser mayor.

Vivienne Ming es neurocientífica teórica, científica cognitiva y autora de «Robot-Proof: When Machines Have All The Answers, Build Better People».

Sobre Fernando Broncano 18 artículos
Profesor de humanidades (cultura y tecnología) en Universidad Carlos III de Madrid Estudió en Universidad de Salamanca Filosofía.

Sé el primero en comentar

Deja un comentario