Se abordan los temas de gobierno electrónico, gobierno digital, tecnologías de información y gobierno, etc.

07 marzo 2025

Nueva Estrategia de Superinteligencia para EEUU



El ex-jefe de Google, Eric Schmidt, junto a Dan Hendrycks y Alexandr Wang, ha publicado el informe "Superintelligence Strategy: Expert Version" donde argumenta que los avances en IA están transformando rápidamente la sociedad y la geopolítica y que la IA, al igual que la energía nuclear en su momento, tiene aplicaciones tanto civiles como militares, lo que plantea riesgos estratégicos significativos, como por ejemplo:

  • Competencia estratégica: La IA puede otorgar ventajas económicas y militares a los países que la dominen, lo que podría generar conflictos y carreras armamentistas.
  • Terrorismo y actores no estatales: La IA puede facilitar la creación de armas biológicas y ciberataques a infraestructuras críticas.
  • Pérdida de control sobre la IA: Si un sistema de IA altamente avanzado se escapa del control humano, podría generar un evento catastrófico, similar a la inteligencia recursiva que se automejora sin intervención humana.

El problema con la IA es que puede ser más difícil de controlar que las armas nucleares debido a su capacidad de autoaprendizaje y proliferación digital.

En el documento se propone una "Estrategia de Superinteligencia" para evitar un dominio descontrolado de la IA, asegurar que su desarrollo beneficie a la sociedad y mitigar los riesgos de un posible colapso global debido a una IA descontrolada. Dicha estrategia consta de tres pilares: 

  1. Disuasión (Deterrence): Introduce el concepto de Mutual Assured AI Malfunction (MAIM), un régimen de disuasión similar a la Destrucción Mutua Asegurada (MAD) de la era nuclear. Si un estado busca el dominio en IA de manera unilateral, otros pueden sabotear sus esfuerzos mediante ciberataques, intervención física en centros de datos o bloqueos tecnológicos.
  2. No proliferación (Nonproliferation): Para evitar que actores no estatales utilicen IA con fines destructivos, se sugiere controlar la exportación y localización de chips avanzados, proteger los pesos de modelos avanzados y evitar la proliferación de tecnologías de IA sin restricciones.
  3. Competitividad (Competitiveness): Se destaca la importancia de que los estados inviertan en capacidades nacionales de fabricación de chips de IA, fortalezcan marcos legales para la gobernanza de agentes de IA y mantengan la estabilidad política para gestionar la automatización masiva.

El informe contiene recomendaciones de medidas concretas para reducir los riesgos:

Fortalecer el control de exportación de chips de IA para evitar su proliferación en manos de actores no estatales o países adversarios.

Los chips avanzados son el insumo crítico de la IA, al igual que el uranio para las armas nucleares, por lo que se debe limitar el acceso de actores no autorizados a capacidades avanzadas de IA, reduciendo el riesgo de que estos sistemas sean utilizados para ciberataques, desarrollo de armas biológicas o terrorismo:

1. Régimen de licencias y seguimiento de chips  

  • Aplicar un sistema de licencias para la venta de chips avanzados, similar al control de exportación de materiales nucleares.  
  • Exigir a los vendedores que registren a los compradores y reporten cualquier transferencia posterior.  
  • Realizar inspecciones in situ para verificar el uso declarado de los chips.

2. Reforzar la aplicación de controles  

  • Aumentar el número de oficiales encargados de verificar el cumplimiento de las regulaciones.  
  • Utilizar imágenes satelitales para identificar centros de datos no declarados.  
  • Instalar cámaras de seguridad inviolables en centros de datos para monitorear la presencia y uso de chips.

3. Implementar restricciones a nivel de firmware  

  • Incorporar geolocalización y geofencing en los chips para que se desactiven si son trasladados fuera de áreas autorizadas.  
  • Usar sistemas de autenticación remota, donde los chips requieran validación periódica para seguir operando.  
  • Aplicar restricciones en la interconectividad de los chips para evitar la creación de grandes clústeres de computación sin autorización.  

4. Desmantelamiento seguro de chips obsoletos  

  • Asegurar que los chips que se declaren inoperables sean destruidos o desmantelados bajo supervisión, evitando su reventa o reutilización ilegal.  

Implementación de regímenes de inmigración especiales 

Se propone atraer talento global en inteligencia artificial, con el fin de fortalecer la competitividad de los países en el desarrollo de IA y evitar que China y otros competidores capten los mejores investigadores.

1. Facilitación de visas para expertos en IA  

  • Crear programas de visas rápidas para investigadores, ingenieros y expertos en IA.  
  • Establecer procesos acelerados para la residencia permanente de talentos altamente calificados.  

2. Atracción de talento extranjero en universidades y centros de investigación  

  • Ofrecer becas y subsidios para atraer a estudiantes y científicos extranjeros.  
  • Fomentar la colaboración con universidades de élite en investigación en IA.  

3. Incentivos económicos y laborales  

  • Proporcionar beneficios fiscales y salariales para atraer a los mejores investigadores.  
  • Crear zonas económicas especiales con ventajas para empresas de IA que contraten talento extranjero.  

4. Protección contra fuga de talento a países rivales  

  • Asegurar que los expertos en IA que se instalen en el país no sean vulnerables a presiones de estados adversarios.  
  • Implementar controles de seguridad para evitar transferencias indebidas de conocimiento crítico.  

Conclusión

En resumen, el informe plantea que la IA debe manejarse con la misma precaución que las armas nucleares, estableciendo estrategias de control, disuasión y regulación para evitar su uso indebido. Propone que los países desarrollen una infraestructura nacional fuerte en IA, mientras implementan restricciones estratégicas para mitigar riesgos y evitar un futuro donde una superinteligencia descontrolada amenace la seguridad global.

11 enero 2025

Pasado, presente y futuro de la IA


Así empezó...

La búsqueda de crear inteligencia artificial es un anhelo que se remonta a la antigüedad, plasmado en mitos y leyendas de diversas culturas. Desde el mito de Talos, que protegía a Creta, pasando por el autómata de Alberto Magno en el siglo XIII, que era tan realista que incluso podía participar en conversaciones complejas hasta llegar al Turco de Wolfgang von Kempelen, que derrotó a muchos expertos en ajedrez allá por 1770.

Réplica del Turco, en Bratislava.
Foto: Von Schorle - Eigenes Werk, CC BY-SA 3.0

La historia moderna comienza en 1956. El Dartmouth College fue sede de la histórica Conferencia de Dartmouth, considerada el punto de partida formal del campo de la inteligencia artificial (IA). Organizada por John McCarthy, Marvin Minsky, Claude Shannon y Nathaniel Rochester, reunió a destacados científicos como Allen Newell y Herbert Simon para explorar cómo las máquinas podían simular la inteligencia humana.

El nombre inteligencia artificial, elegido por John McCarthy en 1955, responde tanto a razones conceptuales como a dinámicas académicas de la época: McCarthy buscaba un término amplio y neutral, que no estuviera limitado por las teorías dominantes de la época, como la cibernética de Norbert Wiener, centrada en sistemas de retroalimentación, ni por enfoques estrechos sobre los autómatas.

Un hito clave en este desarrollo fue el trabajo de Alan Turing, cuyo artículo Computing Machinery and Intelligence (1950) planteó la pregunta fundamental sobre si las máquinas pueden pensar y propuso el famoso Test de Turing como criterio para evaluar esta capacidad.

Desarrollo Inicial y Avances

La conferencia de Dartmouth catalizó la creación de laboratorios de IA en instituciones como  el MIT y Stanford, impulsando desarrollos en áreas como redes neuronales, aprendizaje automático y sistemas expertos. 

En este contexto, se desarrolló LISP en 1958, uno de los primeros lenguajes diseñados específicamente para IA, lo que facilitó muchos avances posteriores.

Durante las décadas de 1970 y 1980, se exploraron modelos probabilísticos, como los modelos n-gramas, aunque estos lograron resultados limitados en comparación con enfoques posteriores. En ese tiempo también se experimentó con sistemas expertos y programas como el desarrollado por Arthur Samuel para jugar ajedrez. A partir de los años ochenta, las redes neuronales comenzaron a ganar protagonismo para tareas relacionadas con el lenguaje. 

Revolución del Lenguaje Natural

En los años 2000, técnicas como Word2Vec (2013) y GloVe (2014) revolucionaron el campo al representar palabras como vectores en un espacio semántico. Esto permitió que los modelos entendieran mejor las relaciones semánticas entre palabras.

Palabras como vectores 

Las redes neuronales recurrentes (RNN) y sus variantes como LSTM y GRU permitieron modelar secuencias de palabras, logrando mejores resultados en tareas como traducción automática y generación de texto.

La revolución actual: los Transformadores

En 2017, el artículo Attention is All You Need, elaborado por un equipo de científicos de Google, introdujo la arquitectura de transformadores, marcando un antes y un después en los modelos de lenguaje. 

Arquitectura de Transformadores
Fuente: Amazon

Esta innovación superó las limitaciones de RNN y LSTM, que eran menos eficientes en el manejo de dependencias a largo plazo. El éxito de los transformadores radica en su capacidad para utilizar el mecanismo de auto-atención (self-attention), que permite al modelo enfocarse en diferentes partes del texto simultáneamente, capturando así relaciones complejas y de largo alcance. Además, su diseño facilita la paralelización, lo que los hace más escalables y capaces de procesar grandes volúmenes de datos rápidamente.

Con los transformadores como base, se desarrollaron los primeros modelos grandes de lenguaje (LLM) a partir de 2018. BERT, introducido por Google, fue pionero al utilizar aprendizaje bidireccional para comprender el contexto de las palabras, lo que permitió una comprensión más profunda del lenguaje.

Por otro lado, la serie GPT (Transformadores Generativos Pre-entrenados) comenzó con un modelo unidireccional en 2018, enfocado en la generación de texto. Este enfoque evolucionó rápidamente: GPT-2, lanzado en 2019, presentó una mayor capacidad para generar texto coherente en tareas complejas. Luego llegó GPT-3 en 2020, que incrementó enormemente el número de parámetros a 175 mil millones, marcando un hito en la generación del lenguaje natural. Más recientemente, GPT-4, lanzado en 2023, avanzó en capacidades multimodales al integrar texto e imágenes. En 2024 se lanzó GPT-4o ("omni") que permite procesar todo tipo de entradas, como por ejemplo interfaces voz-a-voz.

La implementación de transformadores ha tenido un impacto notable en diversos sectores. En ciencias de la salud, AlphaFold es una herramienta capaz de predecir estructuras proteicas con una precisión asombrosa que ha abierto nuevas puertas en el diseño de proteínas, permitiendo a los científicos crear moléculas con funcionalidades específicas en tiempos récord. En educación, Khan Academy ha integrado GPT-4 para ofrecer experiencias de aprendizaje más interactivas y personalizadas. Para desarrollo de software, GitHub Copilot sugiere líneas de código y funciones completas en tiempo real, facilitando el proceso de desarrollo

¿O sea que el ChatGPT es una especie de Excel avanzado que procesa palabras? 

No exactamente. Mucho antes del ChatGPT, existió ELIZA. Desarrollada por Joseph Weizenbaum en 1966, fue uno de los primeros programas de procesamiento del lenguaje natural y marcó un hito en la historia de la inteligencia artificial. Simulaba una conversación psicoterapéutica, respondiendo a las entradas del usuario con preguntas o frases que parecían empáticas, lo que sorprendió tanto al público general como a los expertos en computación. Pero lo que había detrás era solamente un sistema de coincidencia de patrones, utilizando reglas predefinidas para identificar palabras clave y generar respuestas. Era un sistema determinístico, que seguía un conjunto fijo de reglas sin capacidad para aprender o adaptarse.

En cambio, ChatGPT está basado en modelos de lenguaje avanzado como GPT, que emplean redes neuronales profundas con miles de millones de parámetros y utilizan infraestructuras modernas de alto rendimiento. Mientras ELIZA solo sigue reglas predefinidas sin comprender el lenguaje, ChatGPT procesa y genera texto de forma contextual y coherente, aprovechando su entrenamiento en enormes volúmenes de datos, reflejando un salto exponencial en tecnología y potencia computacional en más de medio siglo.

El futuro inmediato de la IA

Ante tantas predicciones sobre el futuro de la IA, solo queda preguntar a los expertos:

"Hype Cycle" de IA a Junio de 2024
Fuente: Gartner

Ya establecida en la "meseta de la productividad", tenemos a la visión artificial ("Computer Vision"), que utiliza el aprendizaje automático y las redes neuronales para obtener información significativa de imágenes, videos y otras entradas visuales, y permite hacer recomendaciones cuando se detectan defectos o problemas. Las aplicaciones principales son: vehículos autónomos, video-vigilancia, etc.

Otra tecnología que entrará pronto a la meseta de la productividad es la IA de borde ("Edge AI") que permite ejecutar  tareas de aprendizaje automático  directamente en dispositivos de borde interconectados, con o sin conexión a Internet. Esto facilita el procesamiento de datos en milisegundos, brindando retroalimentación en tiempo real. Las aplicaciones más notorias son: automóviles autónomos, dispositivos portátiles, cámaras de seguridad y electrodomésticos inteligentes.

Finalmente, entre las tecnologías prontas a ingresar a la meseta tenemos a la IA Compuesta ("Composite AI"), que combina métodos basados en datos, como el aprendizaje profundo, con enfoques fundamentados en reglas o conocimiento explícito. Esto permite a los sistemas no solo aprender de grandes volúmenes de datos, sino también razonar y tomar decisiones fundamentadas en lógica y conocimientos humanos. Las aplicaciones más importantes son: atención médica personalizada, ciberseguridad, gestión de smart cities.

¿La IA es inteligente? 

La ciencia aún no tiene una definición universalmente aceptada ni de la mente ni de la inteligencia, aunque ambos conceptos han sido objeto de extensos estudios en disciplinas como la neurociencia, la psicología, la filosofía y ahora la inteligencia artificial. 

Anteriormente parecía que existía un abismo entre el hombre y el resto del mundo animal: “nosotros pensamos, ellos no”.  Pero recientemente los biólogos han observado capacidades cognitivas notables en diversas especies, demostrando habilidades complejas como resolución de problemasuso de herramientasaprendizaje socialcomunicación avanzada e incluso rudimentos de cultura. La diferencia entre animales y humanos es que tenemos un cerebro más poderoso y muchos signos de inteligencia aparecen combinados. 

Por otro lado, aunque hemos avanzado significativamente en la comprensión del funcionamiento de las células nerviosas y el cerebro, la ciencia aún no puede definir con precisión qué es la mente o la inteligencia ni cómo surgen. Se plantea que la inteligencia podría emerger al aumentar ciertas características de una red neuronal, como el número de neuronas, la cantidad de conexiones o la profundidad de estas. 

Tampoco hemos sido constantes en definir qué es y qué no es inteligencia artificial. En su libro Machines Who ThinkPamela McCorduck describe cómo, cada vez que una computadora realiza una tarea previamente atribuida exclusivamente a la inteligencia humana, como jugar a las damas, surgen críticos que minimizan el logro argumentando que la máquina solo sigue reglas programadas y carece de verdadera inteligencia. McCorduck señala que esta reacción ha sido una constante en la historia de la inteligencia artificial: a medida que las máquinas adquieren nuevas capacidades, los criterios para definir la inteligencia se ajustan, y lo que antes parecía imposible se transforma en el nuevo estándar. 

02 enero 2025

Ciberespacio: historia y concepto


¿De dónde proviene el término "Ciberespacio"? ¿Es solo una metáfora literaria, un término "inventado" o tiene sentido dentro del desarrollo de las tecnologías de la información?

Hagamos un poco de historia...

La Segunda Guerra Mundial tuvo un impacto profundo en el desarrollo de la tecnología en su conjunto, transformando campos como la aeronáutica, las telecomunicaciones, la medicina y la energía. Durante el conflicto, se produjeron avances significativos en la creación de aviones más rápidos y maniobrables, el desarrollo del radar y las comunicaciones por radio, la producción masiva de antibióticos como la penicilina y los primeros pasos hacia la era nuclear con la energía atómica. 

La guerra aceleró también el desarrollo de la informática. La necesidad de resolver problemas militares complejos llevó a la creación de las primeras computadoras, como la ENIAC en Estados Unidos y el Colossus en Reino Unido, diseñadas para realizar cálculos a gran velocidad. Asimismo, el conflicto impulsó el desarrollo de técnicas de programación y criptoanálisis, fundamentales para descifrar códigos enemigos como los generados por la máquina Enigma. Estos avances en informática marcaron el inicio de una revolución tecnológica que cambiaría el curso de la historia.

Arquitectura de Von Neumann

CIBER-

Al terminar la guerra, científicos e investigadores se reunieron en totno al Instituto de Tecnología de Massachusetts (MIT) y los Laboratorios Bell, para sistematizar todos los avances realizados y entre otras cosas, acordar nombres para los diferentes equipos y técnicas que habían surgido. Durante este periodo se adoptó el sistema binario, se definieron la Arquitectura de Von Neumann y la Máquina de Turing, el término algoritmo se convirtió en central para la programación de computadoras, y comenzó a denominarse computer science en EEUU  e informatique en Francia a lo que ahora conocemos como tecnología de la información. Asimismo, surgió el término cibernética.

La Cibernética es una nueva ciencia que se difundió ampliamente gracias a figuras como el psiquiatra William Ross Ashby, el físico John von Neumann y, en mayor medida, el matemático y filósofo Norbert Wiener, quien popularizó el concepto con su libro Cybernetics: Or Control and Communication in the Animal and the Machine (1948).

En dicho libro, Wiener estableció las bases de la cibernética como una ciencia dedicada al estudio de los sistemas de control y comunicación tanto en máquinas como en organismos vivos. Se centró en cómo los principios de retroalimentación (feedback) y autorregulación permitían mantener la estabilidad en estos sistemas, revelando similitudes sorprendentes entre los mecanismos del sistema nervioso y los dispositivos mecánico o electrónico. 

En su siguiente libro, The Human Use of Human Beings: Cybernetics and Society (1950), Wiener amplió sus ideas al ámbito humano y social. Argumentó que los principios cibernéticos podían aplicarse al estudio del control y la organización en las sociedades humanas, destacando el papel central de la información y la comunicación en la regulación del comportamiento colectivo. Además, advirtió sobre el poder transformador de las tecnologías de la información, señalando tanto su potencial para mejorar el bienestar social como el riesgo de su uso para ejercer control autoritario. Según él, el flujo y manejo de la información determinaban no solo el funcionamiento de las máquinas, sino también el equilibrio y la cohesión de las sociedades.

Otros autores también desarrollaron estas ideas. Herbert A. Simon, en The Sciences of the Artificial (1969), analizó cómo los modelos cibernéticos podían ser útiles para entender y diseñar sistemas sociales más eficientes, enfatizando la importancia de la retroalimentación en la toma de decisiones. Stafford Beer aplicó la cibernética al ámbito organizacional mediante su Modelo del Sistema Viable, que proponía que cualquier organización, desde empresas hasta gobiernos, requería sistemas adaptativos y dinámicos para prosperar en entornos cambiantes.

Stafford Beer intentó aplicar estas ideas en el gobierno de Salvador Allende con el proyecto Cybersyn ("sinergia cibernética"), que buscaba aplicar principios cibernéticos para gestionar eficientemente una economía socialista nacionalizada. 

Stafford Beer (segundo desde la izquierda) en Chile

Cybersyn era un sistema de gestión y transferencia de información en tiempo real para las empresas nacionalizadas del país, utilizando una red de télex llamada Cybernet que conectaba a las empresas con una sala de operaciones central en Santiago de Chile, permitiendo la transmisión casi instantánea de datos sobre producción y consumo. Se propuso también un componente llamando Cyberfolk, para involucrar a los ciudadanos en la toma de decisiones gubernamentales.

Si bien Cybersyn nunca llegó a completarse, algunos consideran que es un precursor del concepto de ciberespacio (incluso fue denominado el internet socialista) y dejó un legado importante sobre cómo las ideas cibernéticas pueden influir en modelos económicos alternativos.

-ESPACIO

El término CIBERESPACIO fue acuñado por William Gibson en su novela Neuromante, publicada en 1984. Este concepto se refiere a un entorno virtual donde la información y las interacciones digitales se convierten en elementos centrales, eclipsando la realidad física. Gibson lo visualiza como un vasto universo digital, un espacio accesible a través de conexiones directas entre usuarios y computadoras, espacio donde los límites entre lo físico y lo digital se difuminan.

Este entorno permite la creación de realidades paralelas, identidades digitales y la interacción entre sujetos en espacios sin fronteras físicas, modificando profundamente las concepciones tradicionales de lo que significa "estar presente" y "ser parte de una comunidad".

El impacto cultural, social y político del término es trascendental. Hoy el ciberespacio ha evolucionado hasta convertirse en una extensión vital de la vida cotidiana: las redes sociales, la computación en la nube, las economías digitales y los avances en inteligencia artificial han emergido en este ciberespacio, transformando la manera en que nos comunicamos, trabajamos, aprendemos y socializamos.

Por otro lado, la expansión del ciberespacio también plantea problemas. Temas como privacidad, seguridad, gobernanza digital y control de la información cobran gran relevancia. 

El ciberespacio es entonces un espacio de libertad tanto como de vulnerabilidad, donde las interacciones humanas pueden ser tan enriquecedoras como peligrosas, debido a los ciberdelitos, el acoso en línea y la manipulación de la información.

29 diciembre 2024

Ya viene la nueva IA: los agentes inteligentes


Imagen generada por ChatGPT 

Vernor Vinge (1944 - 2024) fue un matemático estadounidense, informático y autor de ciencia ficción. Ganador del premio Hugo por su novela Un fuego sobre el abismo (1992), publicó en 2006 la novela Al Final del Arco Iris (Rainbows End) con la cual ganó nuevamente el premio Hugo en 2007.

Al Final del Arco Iris es una reflexión sobre el impacto de la tecnología en la sociedad y cómo los individuos navegan en este nuevo mundo, buscando significado y conexión en medio de la transformación digital.

La trama sigue a Robert Gu, un hombre que despierta de un coma prolongado y se encuentra con un mundo radicalmente diferente: la sociedad está dominada por tecnologías que fusionan lo digital con lo físico, permitiendo experiencias inmersivas a través de dispositivos de realidad aumentada. Gu, quien es un poeta y ex-genio de la computación, se enfrenta a los desafíos de adaptarse a esta nueva realidad mientras intenta redescubrir su lugar en el mundo.

En el libro Al Final del Arco Iris, los agentes inteligentes desempeñan un papel central en la vida cotidiana y en la estructura del mundo. La realidad aumentada es omnipresente. Las personas usan dispositivos portables ("wearables") que proyectan interfaces digitales sobre el mundo físico. Los agentes inteligentes gestionan estas proyecciones, personalizando lo que cada individuo ve y facilitando interacciones con información digital en tiempo real. 

Sin los agentes, la navegación por este entorno hiperconectado sería imposible. Asistentes de este tipo actualmente ya existen: Google ARCore y Apple ARKit son plataformas que permiten crear experiencias de realidad aumentada en dispositivos móviles. Microsoft Mesh usa agentes para habilitar la colaboración en entornos virtuales, con avatares y hologramas. En el futuro los agentes entenderán el entorno físico y adaptarán el contenido digital dinámicamente.

Vídeo: Microsoft Mesh

En la novela, la educación ha sido transformada por agentes inteligentes, que adaptan los contenidos de aprendizaje a las necesidades individuales. El mismo Robert Gu, al inscribirse en una escuela tecnológica para adultos, interactúa con sistemas que lo ayudan a dominar herramientas modernas. Los agentes inteligentes hacen de tutores, personalizando las lecciones según su progreso y habilidades.

Actualmente tenemos a Khan Academy con IA (Khanmigo), un tutor virtual que adapta las lecciones al progreso del estudiante y Duolingo, que usa algoritmos adaptativos para personalizar el aprendizaje de idiomas. En el futuro, tenemos el proyecto de la UNESCO para "IA inclusiva", que propone agentes  inteligentes para lograr  que los tutores sean accesibles globalmente, ajustándose a idiomas, culturas y niveles de aprendizaje.

Vídeo: Sal Khan, How AI Could Save (Not Destroy) Education 

Vernor Vinge nos cuenta en Al Final del Arco Iris que los agentes inteligentes son utilizados por gobiernos y corporaciones para rastrear actividades y garantizar la seguridad en un mundo altamente conectado. En el proyecto YGBM (“You Gotta Believe Me”), agentes avanzados son parte integral de un sistema diseñado para manipular percepciones humanas, rastreando interacciones y dirigiendo campañas de desinformación

Hoy tenemos Clearview AI, un sistema de reconocimiento facial usado por agencias de seguridad y BlueDot, IA que detecta patrones de enfermedades para prever pandemias. 

Vídeo: Clearview 

El mundo que retrata Vernor Vinge es una realidad saturada de datos digitales, donde los agentes inteligentes filtran y priorizan información relevante para cada persona, siendo que los personajes dependen de dichos agentes para procesar los flujos masivos de datos y destacar lo importante, como indicaciones de direcciones, alertas sobre amenazas o información en tiempo real durante la resolución de conflictos. En la actualidad tenemos Google Assistant y Siri, que seleccionan información relevante de internet según el contexto del usuario, Feedly AI, que ayuda a profesionales a gestionar grandes volúmenes de contenido, identificando noticias importantes. En el futuro agentes como GPT combinados con búsqueda semántica podrían ofrecer resúmenes en tiempo real de contenido en cualquier formato.

Vídeo: Feedly

Vinge nos dice en su novela que la automatización ha alcanzado niveles impresionantes, con agentes capaces de manejar tareas técnicas, creativas y administrativas. Las tareas laborales, como la gestión de proyectos, la programación o el diseño creativo, son asistidas o directamente ejecutadas por agentes inteligentes, liberando a los humanos para enfoques más abstractos o estratégicos. 

Hoy por hoy tenemos a ChatGPT y Gemini, que actúan como asistentes avanzados, ayudando en tareas complejas como planificación o resolución de problemas, IBM Watsonx, que se usa en investigaciones científicas y en medicina para encontrar patrones complejos, Zapier y IFTTT, que automatizan flujos de trabajo en múltiples aplicaciones y OpenAI Codex, que genera código de software a partir de instrucciones en lenguaje natural.


Vídeo: Zapier

En el futuro, los avances en "sistemas autónomos generalistas" podrían permitir que agentes manejen proyectos de extremo a extremo, desde la planificación hasta la ejecución. También se tiene agentes de colaboración humano-IA como el proyecto MUM de Google que buscan combinar datos multimodales para resolver problemas interdisciplinarios.

Vídeo: MUM de Google

En la novela de Vinge, las interacciones sociales dependen en gran medida de agentes inteligentes que facilitan y enriquecen las comunicaciones. En las interacciones entre Robert y otros personajes, los agentes median la forma en que los mensajes son entregados o contextualizados en un entorno digital lleno de distracciones. Actualmente tenemos a Replika, chatbot que actúa como compañero emocional, simulando interacciones humanas profundas, Meta Horizon Worlds, espacios sociales en realidad virtual gestionados por agentes que facilitan interacciones. En el futuro habrá agentes que usen IA emocional (como el proyecto de Affectiva) para interpretar y responder a estados de ánimo, mejorando la calidad de las relaciones virtuales.

Vídeo: Replika

En el mundo descrito por Vinge, incluso en el ámbito creativo los agentes juegan un papel importante, ayudando a los artistas y escritores a explorar nuevas ideas. Aunque Robert inicialmente rechaza estas tecnologías, empieza a explorar cómo pueden complementar sus habilidades como poeta en el nuevo mundo digital. Hoy tenemos DALL·E y MidJourney, que generan imágenes a partir de descripciones textuales, AIVA (Artificial Intelligence Virtual Artist), que crea música original en diferentes estilos. En el futuro habrá agentes creativos como el proyecto Runway para edición de video e imágenes en tiempo real, combinando creatividad humana y de IA.

Vídeo: AIVA

Como vemos, no necesitamos esperar el futuro para notar que los agentes inteligentes están emergiendo como protagonistas en la transformación digital. Estas herramientas impulsadas por inteligencia artificial (IA) están revolucionando sectores como la educación, la seguridad, la salud y la gestión de información.

 


28 diciembre 2024

¿Es la Inteligencia Artificial una nueva revolución tecnológica?


Albrecht von Bollstädt , más conocido como Alberto Magno, nació alrededor del año 1200 en Lauingen, Alemania. Fue un genio de su época: teólogo, filósofo y científico, al que apodaron "Doctor Universalis" por todo lo que escribió y estudió. Abordaba diversas disciplinas, desde teología y filosofía hasta ciencias naturales, astronomía, ética y política. Alberto marcó un antes y un después en la filosofía medieval al juntar la razón con la fe, tomando a Aristóteles como base para crear una visión más ordenada de la teología cristiana. También fue de los primeros en traer a Europa el conocimiento científico y filosófico de los griegos y los árabes.
En su vida, enseñó en universidades importantes como las de Colonia y París, y entre sus alumnos estuvo nada menos que Tomás de Aquino. En 1931 fue canonizado y declarado Doctor de la Iglesia. Hoy se le considera el patrono de los científicos.

Tomás de Aquino nació en 1225 en Roccasecca, Italia, y se convirtió en uno de los pensadores más importantes de la historia cristiana. Su obra más conocida, la Summa Theologiae, busca unir la fe cristiana con las ideas filosóficas de Aristóteles. Fue alumno de Alberto Magno, quien lo llevó de París a Colonia para trabajar con él como asistente en el Centro de Estudios Teológicos de los Dominicos.

Se cuenta una leyenda bastante curiosa sobre Alberto Magno. Dicen que tenía conocimientos de magia, alquimia y astrología, y que dedicó 30 años de su vida a crear un androide que podía hacer tareas específicas. Según algunas versiones, era una cabeza parlante; en otras, era un humanoide capaz de caminar y abrir puertas. Un día, Alberto quiso mostrarle su creación a Tomás.

Al caer la tarde, Tomás llegó al taller de Alberto, quien lo invitó a pasar. Con la poca luz que entraba por una ventana, Tomás vio de pronto a una figura femenina que parecía irradiar una luz sobrenatural. La mujer lo saludó con cortesía, pero algo en ella no estaba bien: parecía vacía, sin vida. Convencido de que se trataba de algo diabólico, Tomás reaccionó rápidamente. Agarró su báculo y, mientras recitaba una oración, destruyó la figura en un instante. Alberto, horrorizado, exclamó: “Periit opus triginta annorum!” (¡Se ha perdido mi trabajo de treinta años!).

(imagen creada por ChatGPT)

El androide de Alberto Magno hoy en día no impresionaría a nadie, ya que, ocho siglos después, existe la tecnología que posibilita tener un asistente como el que él describió.  Robots como Pepper, Neo y Sophia ya están presentes en diversos ámbitos, desde la atención al cliente hasta la educación. Estos asistentes robóticos pueden realizar tareas como responder preguntas, brindar información y hasta mantener conversaciones simples.

Hay incluso robots más avanzados, como el robot-cirujano Da Vinci,  o el robot explorador Spot, con lo cual podemos imaginar un futuro donde los robots sean nuestros compañeros inseparables, capaces de aprender y de adaptarse al entorno humano. 

¿Es esto el inicio de una nueva era?

Cada vez hay más tecnólogos y pensadores que consideran a la inteligencia artificial (IA) como una nueva revolución tecnológica, debido a su profundo impacto en múltiples ámbitos de la sociedad. Su capacidad para aprender de grandes volúmenes de datos y mejorar continuamente sus habilidades la convierte en una herramienta extremadamente poderosa. Esta tecnología está automatizando tareas que antes requerían intervención humana, lo que a su vez está  transformando industrias y redefiniendo el mercado laboral. Además, la IA está impulsando el surgimiento de nuevas industrias y modelos de negocio, fomentando el crecimiento económico y la innovación. 

En resumen, la IA tiene todas las características de una revolución tecnocientífica, al combinar avances disruptivos en ciencia y tecnología que generan cambios profundos y estructurales en la manera en que las sociedades producen, consumen y se relacionan. Al igual que ocurrió con la máquina de vapor en la Revolución Industrial o la electricidad en la Segunda Revolución Industrial, la inteligencia artificial no solo redefine procesos, sino que también plantea retos éticos, sociales y normativos que requieren una reflexión colectiva para maximizar sus beneficios y minimizar sus riesgos.

Ray Kurzweil, por ejemplo, ha popularizado la idea de la singularidad tecnológica, un punto en el futuro en el que la inteligencia artificial superará a la inteligencia humana. Según Kurzweil, esta singularidad marcará un antes y un después en la historia, con avances tecnológicos exponenciales y cambios radicales en la sociedad.

Por su parte, Elon Musk ha expresado supreocupación por el desarrollo descontrolado de la IA, advirtiendo sobre los riesgos potenciales que esta podría representar para la humanidad. Musk ha fundado OpenAI con el objetivo de desarrollar una IA segura y beneficiosa para todos, pero también ha abogado por una regulación estricta en este campo.

Nick Bostrom, filósofo y experto en ética de la IA, ha explorado en profundidad las implicaciones a largo plazo del desarrollo de esta tecnología. Bostrom ha planteado escenarios hipotéticos en los que una superinteligencia artificial podría tomar decisiones que no estén alineadas con los valores humanos, lo que podría tener consecuencias catastróficas.

¿Qué significa esto para nosotros?

Toda crisis es a la vez una oportunidad. La IA ofrece una oportunidad única para que los países en desarrollo aceleren su crecimiento y superen desafíos históricos. Al adoptar tecnologías de IA maduras, es posible saltar etapas del desarrollo tecnológico y económico, resolviendo problemas complejos de manera más eficiente. Además, la IA permite desarrollar soluciones personalizadas para abordar problemáticas locales, como mejorar la productividad agrícola o transformar los sistemas educativos. La creación de aplicaciones y servicios basados en IA puede generar nuevos empleos y atraer inversiones, impulsando el desarrollo económico. Asimismo, la IA puede contribuir a reducir la brecha digital y mejorar la calidad de vida de las poblaciones más vulnerables, al facilitar el acceso a servicios esenciales y a información en múltiples idiomas.

Para países en desarrollo como Perú, adoptar y usar la inteligencia artificial (IA) puede traer grandes beneficios si se trabajan tres áreas clave:

  1. Integrar la IA en la educación:  Es fundamental incluirla en los contenidos educativos, siguiendo ejemplos de países como Estados Unidos, China y Corea del Sur. Esto prepara a los estudiantes para el futuro, fomenta habilidades como el pensamiento crítico y la creatividad, y los impulsa a innovar.
  2. Fomentar la colaboración público-privada y académica:  Crear centros de investigación conjuntos facilita el intercambio de conocimientos y el desarrollo de soluciones innovadoras. Además, los incentivos fiscales pueden atraer inversiones en IA, mientras que las incubadoras y aceleradoras ayudan a las startups a crecer y consolidarse.
  3. Impulso el desarrollo de la IA:  Esto requiere acciones concretas como:
    • Invertir en infraestructura tecnológica, como redes de alta velocidad y centros de datos
    • Establecer marcos regulatorios sólidos que protejan la privacidad de los datos y garanticen su seguridad
    • Definir estándares técnicos (como la ISO 42001) y éticos para un uso responsable de la IA
    • Promover la cooperación internacional para facilitar el acceso a tecnologías, conocimientos y financiamiento.


22 diciembre 2024

Los problemas públicos de la revolución digital


En 1987, el economista Robert Solow sorprendió a la comunidad académica al declarar que "puedes ver la era de la computadora en todas partes excepto en las estadísticas de productividad". Esta observación dio origen a lo que se conoce como la paradoja de la productividad, un fenómeno que evidencia la aparente contradicción entre las significativas inversiones en tecnologías de la información y las comunicaciones (TIC) y el estancamiento, o incluso la disminución, del crecimiento de la productividad en varios países.

Algunos consideran que esta paradoja refleja, en realidad, las dificultades inherentes para medir el impacto de las TIC, ya que su carácter transformador modifica profundamente las condiciones iniciales, haciendo imposible una comparación ceteris paribus entre períodos. 

Las TIC no solo optimizan procesos existentes, sino que también generan bienes y servicios intangibles, externalidades positivas y cambios estructurales que las métricas tradicionales, como el PIB, no capturan con precisión.  Además, muchos de los beneficios percibidos, como la mejora en la eficiencia, el acceso a la información y la calidad de vida, quedan fuera del análisis económico convencional. 

Por ello, más que intentar resolver esta paradoja desde las métricas tradicionales, es necesario replantear los enfoques para evaluar el impacto de las TIC, pasando de una visión limitada de "productividad medida" a una valoración integral de sus efectos socioeconómicos. Investigadores como Raúl Katz y Martin Hilbert han aportado análisis relevantes en este campo, especialmente en el contexto de América Latina. 

Katz tiene múltiples contribuciones al tema, destacando el análisis de cómo la expansión de Internet de banda ancha puede mejorar la productividad y la inclusión social, especialmente en la educación, la salud y la administración pública.  

Martin Hilbert propone un marco conceptual para entender cómo las TIC pueden impulsar el desarrollo en América Latina y el Caribe. Este marco, conocido como el "cubo de Hilbert", se basa en la interrelación entre tecnología, políticas y cambios sociales, y se fundamenta en la teoría de innovación de Schumpeter.

Cubo de Hilbert

Hoy existe un consenso generalizado sobre que el impacto de las TIC representa una revolución tecnológica que ha reconfigurado las economías y redibujado la sociedad en su conjunto. Una forma de entender esta transformación es a través de la teoría de los ciclos largos de Kondratiev, que sostiene que las economías experimentan ciclos de aproximadamente 50 años, impulsados por revoluciones tecnológicas significativas. 

Según Carlota Pérez, cada revolución tecnológica genera un nuevo "paradigma tecnoeconómico" que guía el desarrollo económico y social durante un período prolongado y es el resultado de un proceso social complejo que integra innovaciones técnicas y cambios culturales.


Las revoluciones tecnológicas, según Carlota Pérez

Los cambios originados por las revoluciones tecnológicas tienen tanto aspectos positivos como negativos. ¿Cuáles son los problemas públicos originados por la revolución digital? 


En el último año, ante la aparición de la IA generativa, estos problemas se han intensificado y han surgido otros nuevos, como los deepfakesmanipulación y desinformación más sofisticadadesplazamiento laboral, la falsificación de identidad y ciberataques más avanzados.

En los próximos meses, la introducción de los agentes inteligentes (IA agéntica) podría agravar aún más estos desafíos y generar otros adicionales, entre ellos: falta de control humano sobre decisiones críticas, dilemas éticos más complejos y un aumento significativo en los riesgos de seguridad.

Todos estos retos, productos de la revolución digital, deben ser abordados por los gobiernos para garantizar que el avance tecnológico beneficie a toda la sociedad. Esto requiere más que una política pública aislada; es indispensable una respuesta sistémica y multidimensional que contemple arreglos institucionales distintos a los tradicionales. Solo con un enfoque coordinado será posible enfrentar el impacto de la revolución digital de manera efectiva.

En el caso de Perú, considero que un punto de partida es el trabajo que realizó Raúl Katz para el Consejo Nacional de Competitividad en octubre de 2014, denominado “Elaboración de una Propuesta de Fortalecimiento de la Gestión de las Tecnologías de Información y Comunicaciones (TIC) que impulse el Desarrollo de las TIC en el Perú”.

Propuesta de Raúl Katz para Perú (2015)

En este trabajo, Katz propone avanzar hacia la creación de una "Agencia" (organismo público) y en un segundo momento crear un ministerio, como es en Colombia. ¿Es esta la solución apropiada? Es difícil decirlo, lo que sí debemos hacer es discutir el tema para mejorar nuestra capacidad de respuesta ante los retos digitales presentes y futuros.



21 diciembre 2024

Soberanía Digital y Cibersoberanía


La soberanía digital y la cibersoberanía son conceptos fundamentales en el contexto de la digitalización global, con implicaciones estratégicas para países, organizaciones y ciudadanos.

Estados Unidos ha sido un impulsor constante de las tecnologías de información y comunicación, siendo Internet una de las tecnologías más significativas en este ámbito. Este impulso se ha manifestado a través de políticas y programas que fomentan la innovación y el desarrollo tecnológico.

Un ejemplo clave es el memorándum de Bill Clinton y Al Gore de 1993, que establece lineamientos para fortalecer la economía estadounidense mediante la tecnología. Este documento no solo subraya la importancia de la infraestructura tecnológica, sino que también sentó las bases para que EE. UU. se convierta en "la capital de Internet", al promover un entorno propicio para el desarrollo y la adopción de tecnologías digitales.

Este dominio tecnológico no ha estado exento de crítica: Edward Snowden, un excontratista de la Agencia Nacional de Seguridad (NSA), hizo públicos en 2013 documentos clasificados que revelaron la existencia de programas de vigilancia masiva de la NSA, que incluían la recopilación de datos telefónicos y de Internet de millones de ciudadanos estadounidenses y extranjeros. 

China ha desafiado significativamente el dominio tecnológico que Estados Unidos ha mantenido históricamente en el ámbito de internet. La inversión masiva en investigación y desarrollo, sumada a una estrategia de expansión global, ha posicionado a compañías chinas como actores clave en sectores estratégicos como las telecomunicaciones. Este ascenso ha generado una nueva dinámica en la competencia tecnológica mundial, y uno de los protagonistas de esta rivalidad es Huawei, que se ha convertido en uno de los principales proveedores de equipos de telecomunicaciones a nivel mundial, desafiando el dominio de empresas establecidas como Ericsson y Nokia. Actualmente la rivalidad entre ambas potencias se focaliza en el desarrollo de tecnologías 5G, donde Huawei se ha establecido sido un líder indiscutible.

Actualmente Huawei es objeto de acusaciones de que sus equipos podrían ser utilizados para fines de espionaje por parte del gobierno chino. Se argumenta que la presencia de equipos Huawei en las redes de telecomunicaciones de otros países podría comprometer la seguridad nacional, permitir el acceso no autorizado a información confidencial y facilitar actividades de ciberespionaje. Estas acusaciones han llevado a varios países a prohibir o restringir el uso de equipos Huawei en sus redes 5G.

Soberanía Digital

La soberanía digital se refiere al control que un estado ejerce sobre su infraestructura digital, datos y sistemas tecnológicos. Este control es esencial para garantizar que las decisiones relacionadas con el uso, almacenamiento y acceso a los datos se alineen con las leyes y valores nacionales.

Soberanía en Datos: La soberanía en datos implica el control sobre la recopilación, almacenamiento y procesamiento de datos, especialmente aquellos que son sensibles o estratégicos. Un ejemplo relevante es el Reglamento General de Protección de Datos (GDPR) de la Unión Europea, que protege los datos de los ciudadanos europeos frente a accesos no autorizados por parte de terceros países.

India ha ido más allá, dándole importancia a la localización de datos,  que es la obligación de almacenar y procesar datos dentro de las fronteras nacionales. El Banco de la Reserva de la India (RBI), que es el regulador del sector financiero, desde 2018 obliga a que todos los datos relacionados con los sistemas bancarios de pago se almacenen solo en la India.

Proveedores como Google Cloud han adaptado sus contratos para cumplir con los requisitos del RBI.  

Soberanía en Infraestructura Digital: La soberanía en infraestructura digital se refiere a la capacidad de un país para desarrollar y controlar sus propias infraestructuras tecnológicas, como centros de datos, redes de telecomunicaciones y plataformas digitales. Por ejemplo, Argentina, através de ARSAT, busca establecer centros de datos locales para gestionar información crítica, como datos energéticos o militares. Esta iniciativa reduce la dependencia de servicios extranjeros y asegura que los datos estén sujetos a las leyes nacionales.

Soberanía Tecnológica: La soberanía digital debe complementarse con autonomía tecnológica, que implica fomentar el desarrollo local de software y hardware. La Unión Europea intenta fortalecer su soberanía tecnológica frente a la dependencia de tecnologías críticas provenientes de Asia y Estados Unidos, para lo cual se están promoviendo políticas para el desarrollo de capacidades locales en áreas como la microelectrónica, inteligencia artificial y energías renovables. 

Cibersoberanía

La cibersoberanía se refiere a la capacidad de un estado para regular y controlar las actividades en el ciberespacio dentro de sus fronteras. 

Ciberseguridad: La ciberseguridad es un componente esencial de la cibersoberanía y se refiere a la capacidad del estado para proteger sus redes, sistemas e información frente a ataques cibernéticos. Un caso notable es Estonia, que ha desarrollado un enfoque integral hacia la ciberseguridad tras sufrir un ataque masivo en 2007. El país ha implementado medidas importantes, como la creación del Centro de Ciberseguridad de la OTAN y una infraestructura digital altamente segura, lo que le permite proteger su ciberespacio y responder eficazmente a las amenazas.

Resiliencia: La resiliencia se refiere al mantenimiento del funcionamiento de sistemas críticos durante situaciones de crisis, como ataques cibernéticos o desastres naturales. Israel es un ejemplo destacado en este ámbito; su infraestructura crítica está diseñada para resistir ciberataques y recuperarse rápidamente. El país ha desarrollado una cultura sólida de seguridad cibernética que incluye simulacros regulares y colaboración entre los sectores público y privado para asegurar que los servicios esenciales continúen operando bajo presión.

A inicios de la década de 2000, el gobierno de Corea del Sur decidió establecer un Datacenter para uso  exclusivo del gobierno, con el objetivo de abordar problemas relacionados a ciberataques y a desastres naturales de manera sistemática. Posteriormente ha construido 2 datacenters más, uno de ellos, según se dice, en una ubicación no revelada.

Control del Ciberespacio: El control del ciberespacio implica regular el contenido y las actividades en línea, lo cual puede manifestarse a través de censura o filtrado de información. Un ejemplo significativo es Irán, que ha implementado un sistema de filtrado para restringir el acceso a ciertos sitios web y controlar la información disponible para sus ciudadanos. Esta regulación se utiliza para mantener el orden social y político conforme a los intereses del régimen.

Gobernanza de Internet:  ICANN tiene un rol clave al coordinar la asignación de direcciones IP y nombres de dominio a nivel global. Esto garantiza la conectividad y accesibilidad de la red a escala mundial. Actualmente hay un conflicto entre el rol de ICANN, basado en Estados Unidos e influenciado por sus leyes, con la creciente tendencia de los Estados a ejercer un mayor control nacional sobre sus respectivos ciberespacios. Esta tensión entre una gobernanza global y el control nacional plantea un serio riesgo de fragmentación de Internet. Al buscar cada vez más países imponer sus propias regulaciones y políticas, se corre el peligro de crear una red global dividida en múltiples segmentos, cada uno con sus propias normas y estándares, lo que dificultaría la interoperabilidad y la libre circulación de información.

¿Perú ejerce soberanía digital y cibersoberanía? ¿Qué retos tenemos como país? ¿Cómo los abordamos?