Se abordan los temas de gobierno electrónico, gobierno digital, tecnologías de información y gobierno, etc.

11 enero 2025

Pasado, presente y futuro de la IA


Así empezó...

La búsqueda de crear inteligencia artificial es un anhelo que se remonta a la antigüedad, plasmado en mitos y leyendas de diversas culturas. Desde el mito de Talos, que protegía a Creta, pasando por el autómata de Alberto Magno en el siglo XIII, que era tan realista que incluso podía participar en conversaciones complejas hasta llegar al Turco de Wolfgang von Kempelen, que derrotó a muchos expertos en ajedrez allá por 1770.

Réplica del Turco, en Bratislava.
Foto: Von Schorle - Eigenes Werk, CC BY-SA 3.0

La historia moderna comienza en 1956. El Dartmouth College fue sede de la histórica Conferencia de Dartmouth, considerada el punto de partida formal del campo de la inteligencia artificial (IA). Organizada por John McCarthy, Marvin Minsky, Claude Shannon y Nathaniel Rochester, reunió a destacados científicos como Allen Newell y Herbert Simon para explorar cómo las máquinas podían simular la inteligencia humana.

El nombre inteligencia artificial, elegido por John McCarthy en 1955, responde tanto a razones conceptuales como a dinámicas académicas de la época: McCarthy buscaba un término amplio y neutral, que no estuviera limitado por las teorías dominantes de la época, como la cibernética de Norbert Wiener, centrada en sistemas de retroalimentación, ni por enfoques estrechos sobre los autómatas.

Un hito clave en este desarrollo fue el trabajo de Alan Turing, cuyo artículo Computing Machinery and Intelligence (1950) planteó la pregunta fundamental sobre si las máquinas pueden pensar y propuso el famoso Test de Turing como criterio para evaluar esta capacidad.

Desarrollo Inicial y Avances

La conferencia de Dartmouth catalizó la creación de laboratorios de IA en instituciones como  el MIT y Stanford, impulsando desarrollos en áreas como redes neuronales, aprendizaje automático y sistemas expertos. 

En este contexto, se desarrolló LISP en 1958, uno de los primeros lenguajes diseñados específicamente para IA, lo que facilitó muchos avances posteriores.

Durante las décadas de 1970 y 1980, se exploraron modelos probabilísticos, como los modelos n-gramas, aunque estos lograron resultados limitados en comparación con enfoques posteriores. En ese tiempo también se experimentó con sistemas expertos y programas como el desarrollado por Arthur Samuel para jugar ajedrez. A partir de los años ochenta, las redes neuronales comenzaron a ganar protagonismo para tareas relacionadas con el lenguaje. 

Revolución del Lenguaje Natural

En los años 2000, técnicas como Word2Vec (2013) y GloVe (2014) revolucionaron el campo al representar palabras como vectores en un espacio semántico. Esto permitió que los modelos entendieran mejor las relaciones semánticas entre palabras.

Palabras como vectores 

Las redes neuronales recurrentes (RNN) y sus variantes como LSTM y GRU permitieron modelar secuencias de palabras, logrando mejores resultados en tareas como traducción automática y generación de texto.

La revolución actual: los Transformadores

En 2017, el artículo Attention is All You Need, elaborado por un equipo de científicos de Google, introdujo la arquitectura de transformadores, marcando un antes y un después en los modelos de lenguaje. 

Arquitectura de Transformadores
Fuente: Amazon

Esta innovación superó las limitaciones de RNN y LSTM, que eran menos eficientes en el manejo de dependencias a largo plazo. El éxito de los transformadores radica en su capacidad para utilizar el mecanismo de auto-atención (self-attention), que permite al modelo enfocarse en diferentes partes del texto simultáneamente, capturando así relaciones complejas y de largo alcance. Además, su diseño facilita la paralelización, lo que los hace más escalables y capaces de procesar grandes volúmenes de datos rápidamente.

Con los transformadores como base, se desarrollaron los primeros modelos grandes de lenguaje (LLM) a partir de 2018. BERT, introducido por Google, fue pionero al utilizar aprendizaje bidireccional para comprender el contexto de las palabras, lo que permitió una comprensión más profunda del lenguaje.

Por otro lado, la serie GPT (Transformadores Generativos Pre-entrenados) comenzó con un modelo unidireccional en 2018, enfocado en la generación de texto. Este enfoque evolucionó rápidamente: GPT-2, lanzado en 2019, presentó una mayor capacidad para generar texto coherente en tareas complejas. Luego llegó GPT-3 en 2020, que incrementó enormemente el número de parámetros a 175 mil millones, marcando un hito en la generación del lenguaje natural. Más recientemente, GPT-4, lanzado en 2023, avanzó en capacidades multimodales al integrar texto e imágenes. En 2024 se lanzó GPT-4o ("omni") que permite procesar todo tipo de entradas, como por ejemplo interfaces voz-a-voz.

La implementación de transformadores ha tenido un impacto notable en diversos sectores. En ciencias de la salud, AlphaFold es una herramienta capaz de predecir estructuras proteicas con una precisión asombrosa que ha abierto nuevas puertas en el diseño de proteínas, permitiendo a los científicos crear moléculas con funcionalidades específicas en tiempos récord. En educación, Khan Academy ha integrado GPT-4 para ofrecer experiencias de aprendizaje más interactivas y personalizadas. Para desarrollo de software, GitHub Copilot sugiere líneas de código y funciones completas en tiempo real, facilitando el proceso de desarrollo

¿O sea que el ChatGPT es una especie de Excel avanzado que procesa palabras? 

No exactamente. Mucho antes del ChatGPT, existió ELIZA. Desarrollada por Joseph Weizenbaum en 1966, fue uno de los primeros programas de procesamiento del lenguaje natural y marcó un hito en la historia de la inteligencia artificial. Simulaba una conversación psicoterapéutica, respondiendo a las entradas del usuario con preguntas o frases que parecían empáticas, lo que sorprendió tanto al público general como a los expertos en computación. Pero lo que había detrás era solamente un sistema de coincidencia de patrones, utilizando reglas predefinidas para identificar palabras clave y generar respuestas. Era un sistema determinístico, que seguía un conjunto fijo de reglas sin capacidad para aprender o adaptarse.

En cambio, ChatGPT está basado en modelos de lenguaje avanzado como GPT, que emplean redes neuronales profundas con miles de millones de parámetros y utilizan infraestructuras modernas de alto rendimiento. Mientras ELIZA solo sigue reglas predefinidas sin comprender el lenguaje, ChatGPT procesa y genera texto de forma contextual y coherente, aprovechando su entrenamiento en enormes volúmenes de datos, reflejando un salto exponencial en tecnología y potencia computacional en más de medio siglo.

El futuro inmediato de la IA

Ante tantas predicciones sobre el futuro de la IA, solo queda preguntar a los expertos:

"Hype Cycle" de IA a Junio de 2024
Fuente: Gartner

Ya establecida en la "meseta de la productividad", tenemos a la visión artificial ("Computer Vision"), que utiliza el aprendizaje automático y las redes neuronales para obtener información significativa de imágenes, videos y otras entradas visuales, y permite hacer recomendaciones cuando se detectan defectos o problemas. Las aplicaciones principales son: vehículos autónomos, video-vigilancia, etc.

Otra tecnología que entrará pronto a la meseta de la productividad es la IA de borde ("Edge AI") que permite ejecutar  tareas de aprendizaje automático  directamente en dispositivos de borde interconectados, con o sin conexión a Internet. Esto facilita el procesamiento de datos en milisegundos, brindando retroalimentación en tiempo real. Las aplicaciones más notorias son: automóviles autónomos, dispositivos portátiles, cámaras de seguridad y electrodomésticos inteligentes.

Finalmente, entre las tecnologías prontas a ingresar a la meseta tenemos a la IA Compuesta ("Composite AI"), que combina métodos basados en datos, como el aprendizaje profundo, con enfoques fundamentados en reglas o conocimiento explícito. Esto permite a los sistemas no solo aprender de grandes volúmenes de datos, sino también razonar y tomar decisiones fundamentadas en lógica y conocimientos humanos. Las aplicaciones más importantes son: atención médica personalizada, ciberseguridad, gestión de smart cities.

¿La IA es inteligente? 

La ciencia aún no tiene una definición universalmente aceptada ni de la mente ni de la inteligencia, aunque ambos conceptos han sido objeto de extensos estudios en disciplinas como la neurociencia, la psicología, la filosofía y ahora la inteligencia artificial. 

Anteriormente parecía que existía un abismo entre el hombre y el resto del mundo animal: “nosotros pensamos, ellos no”.  Pero recientemente los biólogos han observado capacidades cognitivas notables en diversas especies, demostrando habilidades complejas como resolución de problemasuso de herramientasaprendizaje socialcomunicación avanzada e incluso rudimentos de cultura. La diferencia entre animales y humanos es que tenemos un cerebro más poderoso y muchos signos de inteligencia aparecen combinados. 

Por otro lado, aunque hemos avanzado significativamente en la comprensión del funcionamiento de las células nerviosas y el cerebro, la ciencia aún no puede definir con precisión qué es la mente o la inteligencia ni cómo surgen. Se plantea que la inteligencia podría emerger al aumentar ciertas características de una red neuronal, como el número de neuronas, la cantidad de conexiones o la profundidad de estas. 

Tampoco hemos sido constantes en definir qué es y qué no es inteligencia artificial. En su libro Machines Who ThinkPamela McCorduck describe cómo, cada vez que una computadora realiza una tarea previamente atribuida exclusivamente a la inteligencia humana, como jugar a las damas, surgen críticos que minimizan el logro argumentando que la máquina solo sigue reglas programadas y carece de verdadera inteligencia. McCorduck señala que esta reacción ha sido una constante en la historia de la inteligencia artificial: a medida que las máquinas adquieren nuevas capacidades, los criterios para definir la inteligencia se ajustan, y lo que antes parecía imposible se transforma en el nuevo estándar. 

02 enero 2025

Ciberespacio: historia y concepto


¿De dónde proviene el término "Ciberespacio"? ¿Es solo una metáfora literaria, un término "inventado" o tiene sentido dentro del desarrollo de las tecnologías de la información?

Hagamos un poco de historia...

La Segunda Guerra Mundial tuvo un impacto profundo en el desarrollo de la tecnología en su conjunto, transformando campos como la aeronáutica, las telecomunicaciones, la medicina y la energía. Durante el conflicto, se produjeron avances significativos en la creación de aviones más rápidos y maniobrables, el desarrollo del radar y las comunicaciones por radio, la producción masiva de antibióticos como la penicilina y los primeros pasos hacia la era nuclear con la energía atómica. 

La guerra aceleró también el desarrollo de la informática. La necesidad de resolver problemas militares complejos llevó a la creación de las primeras computadoras, como la ENIAC en Estados Unidos y el Colossus en Reino Unido, diseñadas para realizar cálculos a gran velocidad. Asimismo, el conflicto impulsó el desarrollo de técnicas de programación y criptoanálisis, fundamentales para descifrar códigos enemigos como los generados por la máquina Enigma. Estos avances en informática marcaron el inicio de una revolución tecnológica que cambiaría el curso de la historia.

Arquitectura de Von Neumann

CIBER-

Al terminar la guerra, científicos e investigadores se reunieron en totno al Instituto de Tecnología de Massachusetts (MIT) y los Laboratorios Bell, para sistematizar todos los avances realizados y entre otras cosas, acordar nombres para los diferentes equipos y técnicas que habían surgido. Durante este periodo se adoptó el sistema binario, se definieron la Arquitectura de Von Neumann y la Máquina de Turing, el término algoritmo se convirtió en central para la programación de computadoras, y comenzó a denominarse computer science en EEUU  e informatique en Francia a lo que ahora conocemos como tecnología de la información. Asimismo, surgió el término cibernética.

La Cibernética es una nueva ciencia que se difundió ampliamente gracias a figuras como el psiquiatra William Ross Ashby, el físico John von Neumann y, en mayor medida, el matemático y filósofo Norbert Wiener, quien popularizó el concepto con su libro Cybernetics: Or Control and Communication in the Animal and the Machine (1948).

En dicho libro, Wiener estableció las bases de la cibernética como una ciencia dedicada al estudio de los sistemas de control y comunicación tanto en máquinas como en organismos vivos. Se centró en cómo los principios de retroalimentación (feedback) y autorregulación permitían mantener la estabilidad en estos sistemas, revelando similitudes sorprendentes entre los mecanismos del sistema nervioso y los dispositivos mecánico o electrónico. 

En su siguiente libro, The Human Use of Human Beings: Cybernetics and Society (1950), Wiener amplió sus ideas al ámbito humano y social. Argumentó que los principios cibernéticos podían aplicarse al estudio del control y la organización en las sociedades humanas, destacando el papel central de la información y la comunicación en la regulación del comportamiento colectivo. Además, advirtió sobre el poder transformador de las tecnologías de la información, señalando tanto su potencial para mejorar el bienestar social como el riesgo de su uso para ejercer control autoritario. Según él, el flujo y manejo de la información determinaban no solo el funcionamiento de las máquinas, sino también el equilibrio y la cohesión de las sociedades.

Otros autores también desarrollaron estas ideas. Herbert A. Simon, en The Sciences of the Artificial (1969), analizó cómo los modelos cibernéticos podían ser útiles para entender y diseñar sistemas sociales más eficientes, enfatizando la importancia de la retroalimentación en la toma de decisiones. Stafford Beer aplicó la cibernética al ámbito organizacional mediante su Modelo del Sistema Viable, que proponía que cualquier organización, desde empresas hasta gobiernos, requería sistemas adaptativos y dinámicos para prosperar en entornos cambiantes.

Stafford Beer intentó aplicar estas ideas en el gobierno de Salvador Allende con el proyecto Cybersyn ("sinergia cibernética"), que buscaba aplicar principios cibernéticos para gestionar eficientemente una economía socialista nacionalizada. 

Stafford Beer (segundo desde la izquierda) en Chile

Cybersyn era un sistema de gestión y transferencia de información en tiempo real para las empresas nacionalizadas del país, utilizando una red de télex llamada Cybernet que conectaba a las empresas con una sala de operaciones central en Santiago de Chile, permitiendo la transmisión casi instantánea de datos sobre producción y consumo. Se propuso también un componente llamando Cyberfolk, para involucrar a los ciudadanos en la toma de decisiones gubernamentales.

Si bien Cybersyn nunca llegó a completarse, algunos consideran que es un precursor del concepto de ciberespacio (incluso fue denominado el internet socialista) y dejó un legado importante sobre cómo las ideas cibernéticas pueden influir en modelos económicos alternativos.

-ESPACIO

El término CIBERESPACIO fue acuñado por William Gibson en su novela Neuromante, publicada en 1984. Este concepto se refiere a un entorno virtual donde la información y las interacciones digitales se convierten en elementos centrales, eclipsando la realidad física. Gibson lo visualiza como un vasto universo digital, un espacio accesible a través de conexiones directas entre usuarios y computadoras, espacio donde los límites entre lo físico y lo digital se difuminan.

Este entorno permite la creación de realidades paralelas, identidades digitales y la interacción entre sujetos en espacios sin fronteras físicas, modificando profundamente las concepciones tradicionales de lo que significa "estar presente" y "ser parte de una comunidad".

El impacto cultural, social y político del término es trascendental. Hoy el ciberespacio ha evolucionado hasta convertirse en una extensión vital de la vida cotidiana: las redes sociales, la computación en la nube, las economías digitales y los avances en inteligencia artificial han emergido en este ciberespacio, transformando la manera en que nos comunicamos, trabajamos, aprendemos y socializamos.

Por otro lado, la expansión del ciberespacio también plantea problemas. Temas como privacidad, seguridad, gobernanza digital y control de la información cobran gran relevancia. 

El ciberespacio es entonces un espacio de libertad tanto como de vulnerabilidad, donde las interacciones humanas pueden ser tan enriquecedoras como peligrosas, debido a los ciberdelitos, el acoso en línea y la manipulación de la información.