Nueva Estrategia de Superinteligencia para EEUU
El ex-jefe de Google, Eric Schmidt, junto a Dan Hendrycks y Alexandr Wang, ha publicado el informe "Superintelligence Strategy: Expert Version" donde argumenta que los avances en IA están transformando rápidamente la sociedad y la geopolítica y que la IA, al igual que la energía nuclear en su momento, tiene aplicaciones tanto civiles como militares, lo que plantea riesgos estratégicos significativos, como por ejemplo:
- Competencia estratégica: La IA puede otorgar ventajas económicas y militares a los países que la dominen, lo que podría generar conflictos y carreras armamentistas.
- Terrorismo y actores no estatales: La IA puede facilitar la creación de armas biológicas y ciberataques a infraestructuras críticas.
- Pérdida de control sobre la IA: Si un sistema de IA altamente avanzado se escapa del control humano, podría generar un evento catastrófico, similar a la inteligencia recursiva que se automejora sin intervención humana.
El problema con la IA es que puede ser más difícil de controlar que las armas nucleares debido a su capacidad de autoaprendizaje y proliferación digital.
En el documento se propone una "Estrategia de Superinteligencia" para evitar un dominio descontrolado de la IA, asegurar que su desarrollo beneficie a la sociedad y mitigar los riesgos de un posible colapso global debido a una IA descontrolada. Dicha estrategia consta de tres pilares:
- Disuasión (Deterrence): Introduce el concepto de Mutual Assured AI Malfunction (MAIM), un régimen de disuasión similar a la Destrucción Mutua Asegurada (MAD) de la era nuclear. Si un estado busca el dominio en IA de manera unilateral, otros pueden sabotear sus esfuerzos mediante ciberataques, intervención física en centros de datos o bloqueos tecnológicos.
- No proliferación (Nonproliferation): Para evitar que actores no estatales utilicen IA con fines destructivos, se sugiere controlar la exportación y localización de chips avanzados, proteger los pesos de modelos avanzados y evitar la proliferación de tecnologías de IA sin restricciones.
- Competitividad (Competitiveness): Se destaca la importancia de que los estados inviertan en capacidades nacionales de fabricación de chips de IA, fortalezcan marcos legales para la gobernanza de agentes de IA y mantengan la estabilidad política para gestionar la automatización masiva.
El informe contiene recomendaciones de medidas concretas para reducir los riesgos:
Fortalecer el control de exportación de chips de IA para evitar su proliferación en manos de actores no estatales o países adversarios.
Los chips avanzados son el insumo crítico de la IA, al igual que el uranio para las armas nucleares, por lo que se debe limitar el acceso de actores no autorizados a capacidades avanzadas de IA, reduciendo el riesgo de que estos sistemas sean utilizados para ciberataques, desarrollo de armas biológicas o terrorismo:
1. Régimen de licencias y seguimiento de chips
- Aplicar un sistema de licencias para la venta de chips avanzados, similar al control de exportación de materiales nucleares.
- Exigir a los vendedores que registren a los compradores y reporten cualquier transferencia posterior.
- Realizar inspecciones in situ para verificar el uso declarado de los chips.
2. Reforzar la aplicación de controles
- Aumentar el número de oficiales encargados de verificar el cumplimiento de las regulaciones.
- Utilizar imágenes satelitales para identificar centros de datos no declarados.
- Instalar cámaras de seguridad inviolables en centros de datos para monitorear la presencia y uso de chips.
3. Implementar restricciones a nivel de firmware
- Incorporar geolocalización y geofencing en los chips para que se desactiven si son trasladados fuera de áreas autorizadas.
- Usar sistemas de autenticación remota, donde los chips requieran validación periódica para seguir operando.
- Aplicar restricciones en la interconectividad de los chips para evitar la creación de grandes clústeres de computación sin autorización.
4. Desmantelamiento seguro de chips obsoletos
- Asegurar que los chips que se declaren inoperables sean destruidos o desmantelados bajo supervisión, evitando su reventa o reutilización ilegal.
Implementación de regímenes de inmigración especiales
Se propone atraer talento global en inteligencia artificial, con el fin de fortalecer la competitividad de los países en el desarrollo de IA y evitar que China y otros competidores capten los mejores investigadores.
1. Facilitación de visas para expertos en IA
- Crear programas de visas rápidas para investigadores, ingenieros y expertos en IA.
- Establecer procesos acelerados para la residencia permanente de talentos altamente calificados.
2. Atracción de talento extranjero en universidades y centros de investigación
- Ofrecer becas y subsidios para atraer a estudiantes y científicos extranjeros.
- Fomentar la colaboración con universidades de élite en investigación en IA.
3. Incentivos económicos y laborales
- Proporcionar beneficios fiscales y salariales para atraer a los mejores investigadores.
- Crear zonas económicas especiales con ventajas para empresas de IA que contraten talento extranjero.
4. Protección contra fuga de talento a países rivales
- Asegurar que los expertos en IA que se instalen en el país no sean vulnerables a presiones de estados adversarios.
- Implementar controles de seguridad para evitar transferencias indebidas de conocimiento crítico.
Conclusión
En resumen, el informe plantea que la IA debe manejarse con la misma precaución que las armas nucleares, estableciendo estrategias de control, disuasión y regulación para evitar su uso indebido. Propone que los países desarrollen una infraestructura nacional fuerte en IA, mientras implementan restricciones estratégicas para mitigar riesgos y evitar un futuro donde una superinteligencia descontrolada amenace la seguridad global.