The Economist, sobre Mythos y la IA

No sé si hago bien en aburrir con estas traducciones de artículos que no suelen ser accesibles por los costos de las revistas o periódicos. Este es un artículo de The Economist que aboga, como ya hace toda la UE, por un control de la IA. El caso de Mythos y en general de modelos que son o van a ser capaces de descubrir las debilidades de cualquier sistema informático y que no son visibles para los ingenieros que lo han diseñado presenta un panorama tan aterrador como lo fue en su tiempo la bomba atómica: las redes eléctricas, la banca, los sistemas sanitarios, …. en general toda nuestra vida está regulada por sistemas informáticos que serán mucho más vulnerables que ahora dadas estas capacidades. Se impone un tratado internacional y la creación de agencias de regulación de forma urgente. Donde la urgencia es urgencia real. Que revistas tan liberales y poco sospechosas de izquierdismo como The Economist afirmen esta necesidad es sintomático.

Disculpas por la chapa.

________________________________________________________________

Estados Unidos toma conciencia del peligroso poder de la IA
Tras «Mythos», un enfoque de no intervención ya no es políticamente sostenible ni estratégicamente acertado
__________________________________________

¿Debería confiarse la nueva tecnología más potente del mundo a un puñado de hombres? Cinco genios tan famosos que se les conoce solo por sus nombres de pila —Dario, Demis, Elon, Mark y Sam— ejercen un control casi divino sobre los modelos de inteligencia artificial que darán forma al futuro. La administración Trump se ha mantenido al margen incluso cuando esos modelos han adquirido capacidades asombrosas, convencida de que la competencia sin restricciones entre empresas privadas es la mejor manera de garantizar que Estados Unidos gane la carrera de la IA frente a China.
Hasta ahora. De repente, el enfoque liberal de Estados Unidos respecto a la IA parece estar llegando a su fin. La razón es que el vertiginoso progreso de los modelos también supone una amenaza para la propia seguridad nacional de Estados Unidos, lo que inquieta a miembros de la administración Trump que antes se mostraban más inclinados a preocuparse por el exceso de regulación. Al mismo tiempo, el creciente resentimiento entre los votantes estadounidenses está convirtiendo a la IA en un tema político candente. Un enfoque de laissez-faire ya no es políticamente sostenible ni estratégicamente sensato.Lee el resto de nuestro reportaje de portada Por qué Anthropic y OpenAI están ocultando sus últimos modelos. La crisis de los empleos tecnológicos es real. No culpes a la IA (todavía)¿Podrían los líderes de la IA llegar a ser tan poderosos como Ford o Rockefeller


El punto de inflexión fue el anuncio de Anthropic sobre Claude Mythos el 7 de abril. La última creación de este desarrollador de modelos es tan sorprendentemente eficaz a la hora de detectar vulnerabilidades de software que, en manos equivocadas, amenazaría infraestructuras críticas, desde bancos hasta hospitales. Los modelos de IA plantean cada vez más otros riesgos, desde peligros para la bioseguridad hasta estafas a escala industrial.
El director de Anthropic, Dario Amodei, consideró acertadamente que Mythos era demasiado peligroso para su lanzamiento general. En su lugar, lo ha reservado para su uso por parte de unas 50 grandes empresas de los sectores de la informática, el software y las finanzas, para que puedan reforzar sus propias defensas. El secretario del Tesoro de Estados Unidos, Scott Bessent, se sintió tan inquieto que convocó a los bancos más importantes para mantener conversaciones urgentes.


No era la primera vez que el Gobierno intervenía. Hace solo unas semanas, el Pentágono intervino después de que Amodei se negara a permitir que el modelo de Anthropic se utilizara en armas totalmente autónomas o para la vigilancia masiva interna. También entonces, la Administración Trump se alarmó, debido al poder que una sola empresa ejercía sobre una tecnología fundamental para la seguridad nacional.
La reacción negativa entre los votantes aumentará la presión sobre el Gobierno para que intervenga. Las encuestas de opinión están llevando a cada vez más políticos a pensar que la IA será uno de los grandes temas de las elecciones de 2028. Los estadounidenses son mucho más escépticos con respecto a la IA que la gente de otros países. Siete de cada diez piensan que la IA perjudicará las oportunidades laborales, un fuerte aumento respecto a hace un año (y mucho antes de que haya pruebas sólidas). La oposición popular a los centros de datos está en auge, aunque la IA tenga poco o nada que ver con el aumento de los precios de la electricidad. Como señal de los tiempos que corren, la casa de Sam Altman, director de OpenAI, ha sido atacada dos veces en los últimos días.


La historia sugiere que, con una tecnología tan transformadora como la IA, un momento «Mythos» era inevitable. Desde John D. Rockefeller hasta Henry Ford, las grandes innovaciones industriales de Estados Unidos estuvieron lideradas por un pequeño número de hombres que adquirieron un poder inmenso. Con el tiempo, los gobiernos del siglo XX intervinieron para controlar a las industrias demasiado poderosas, desde la lucha contra los monopolios que desmanteló Standard Oil hasta la creación de la Reserva Federal y la desintegración de AT&T. Aquellos tiempos estaban al menos tan polarizados y agitados como los actuales. Y nuestros cálculos sugieren que los dioses de la IA aún no son más dominantes de lo que lo fueron sus predecesores históricos.


Pero la historia también sugiere que controlar la IA será complicado. Esto se debe, en parte, a que hay mucho en juego si las cosas salen mal. También se debe a que la IA está evolucionando a una velocidad vertiginosa.
Las disyuntivas son agudas. El crecimiento económico se beneficiará de la rápida difusión de las ventajas de la IA, pero la posible reacción adversa podría conducir fácilmente a una regulación excesiva. No hacer nada podría dejar a Estados Unidos vulnerable a un caos malévolo provocado por la IA, pero una regulación excesiva garantizaría que China ganara la carrera de la IA. Esto hace que este sea un momento peligroso.


El tiempo apremia. Hace dos años, durante la administración Biden, los debates sobre la regulación se centraban principalmente en los riesgos potenciales de la IA. Hoy en día, sus capacidades ya son alarmantemente potentes y aumentan con cada nuevo lanzamiento. El ritmo de la innovación implica que los debates sobre el papel adecuado del gobierno, que en el pasado se prolongaban durante años, incluso décadas, ahora deben resolverse en meses.
Y los obstáculos técnicos para un enfoque más intervencionista son desalentadores. Las herramientas de control gubernamental, como la nacionalización, son ineficaces porque los ingenieros con talento pueden moverse libremente entre empresas y la potencia de cálculo es un bien básico. Peor aún, los principales creadores de modelos solo llevan unos meses de ventaja a sus competidores de código abierto, incluidos los de China. Tarde o temprano las capacidades de sus modelos estarán al alcance de todos.


Aun así, el momento «Mythos» podría ser aquel en el que empiece a tomar forma un plan viable para controlar la IA. Los usuarios de confianza obtendrían acceso anticipado a los nuevos modelos más potentes: OpenAI sigue los pasos de Anthropic al lanzar su última herramienta a un grupo limitado de profesionales de la ciberseguridad previamente seleccionados. Antes de permitir que estos modelos se comercialicen ampliamente, el gobierno podría exigir la certificación de organismos liderados por la industria que los hayan probado para diferentes usos.
Esta idea tiene ventajas tanto para los grandes creadores de modelos como para el Gobierno. Evita el largo proceso de crear un nuevo organismo regulador. Al permitir el acceso solo a unos pocos usuarios premium, permite a los creadores de modelos cobrar precios más altos y limitar el uso de la escasa potencia de cálculo. Mientras tanto, el Gobierno puede restringir quién puede utilizar los modelos más potentes, reduciendo el riesgo de que China pueda copiarlos y alcanzarles más rápidamente.


Pero también adolece de graves problemas. El lanzamiento limitado reducirá la competencia y aumentará la influencia de las empresas de IA ya consolidadas. Ralentizará la difusión de los beneficios de la IA y creará un sistema de dos niveles dentro de la economía estadounidense, perjudicando a las numerosas empresas a las que se les priva repetidamente del acceso privilegiado y temprano a nuevos modelos potentes. ¿Y si crear defensas contra la IA lleva mucho tiempo o resulta imposible? ¿Qué pasa con los modelos de código abierto? ¿Cómo se puede insistir en que ellos también sigan estas reglas?
Un sistema regulador construido sobre estos cimientos podría resultar injusto. Los iniciados podrían protegerse contra las amenazas de vanguardia; los de fuera tendrían que esperar lo mejor. Las oportunidades para el cabildeo y los beneficios desmesurados serían inmensas. Eso pondría a prueba la honestidad y la competencia de la administración más abiertamente corrupta de la era política moderna de Estados Unidos. Y una solución que concentre aún más el poder y la riqueza entre el puñado de dioses de la IA corre el riesgo de agravar la misma reacción política que está empezando a preocupar a Washington.


Además, el enfoque de Mythos solo puede ser la mitad de la solución. La seguridad de la IA no puede garantizarse a nivel nacional. A la larga, exigirá cooperación internacional, empezando por China. El nuevo enfoque en la ciberseguridad también debe ir acompañado de una reflexión urgente sobre los efectos económicos y sociales de la IA. Hacer frente a la disrupción del empleo y diseñar un sistema fiscal adaptado a la IA que favorezca a los trabajadores son problemas enormes para los que nadie tiene aún buenas respuestas. Esto tiene que cambiar. El momento Mythos es una llamada de atención sobre la seguridad de la IA. Exige una reflexión profunda también en otros ámbitos.

The Economist

Cortesía y traducción de Fernando Broncano.

Sobre Fernando Broncano 20 artículos
Profesor de humanidades (cultura y tecnología) en Universidad Carlos III de Madrid Estudió en Universidad de Salamanca Filosofía.

Sé el primero en comentar

Deja un comentario