Se abordan los temas de gobierno electrónico, gobierno digital, tecnologías de información y gobierno, etc.

10 marzo 2024

El futuro no es lo que solía ser: Desmitificando a la Inteligencia Artificial



En el apasionante y siempre cambiante mundo de la tecnología, es común encontrarnos con predicciones que, mirando hacia atrás, resultan ser profundamente erradas. Tanto por un exceso de optimismo como por una falta de comprensión completa de las capacidades de las nuevas tecnologías, los seres humanos hemos demostrado ser propensos a cometer equivocaciones. Tres casos notables de estos desaciertos en el pasado incluyen la paradoja de la productividad, el problema del año 2000 y las predicciones equivocadas sobre la interacción entre humanos y computadoras.

Paradoja de la productividad: En la década de 1980, muchos expertos en economía y tecnología predijeron que la creciente adopción de computadoras en el lugar de trabajo conduciría a un aumento significativo en la productividad laboral[1]. Sin embargo, esta predicción no se materializó inicialmente, lo que llevó a lo que se conoce como la "paradoja de la productividad": aunque las empresas estaban invirtiendo en tecnología, no estaban viendo los aumentos de productividad esperados. Una explicación a esta aparente paradoja es que las mediciones tradicionales de la productividad no reflejan adecuadamente los beneficios de la tecnología informática, la cual permite rediseñar procesos, productos, etc., con lo cual la medición tradicional pierde sentido.

Predicción errónea sobre la interacción humano-computadora: En las primeras etapas del desarrollo de la informática, se creía ampliamente que los humanos tendrían que aprender lenguajes de programación complicados para interactuar con las computadoras. Se pensaba que solo aquellos con conocimientos técnicos avanzados podrían aprovechar al máximo el potencial de la tecnología. Sin embargo, con el tiempo, las interfaces de usuario se volvieron más intuitivas y accesibles, permitiendo que una amplia gama de personas pudiera utilizar la tecnología de manera efectiva sin la necesidad de conocimientos especializados.

Problema del año 2000: A medida que se acercaba el cambio de milenio, surgió una creciente preocupación sobre el posible colapso de sistemas informáticos debido a la forma en que se habían programado las fechas. Muchos expertos temían que el cambio de los dos dígitos finales del año (de 99 a 00) causaría fallas masivas en sistemas informáticos en todo el mundo[2]. A pesar de los esfuerzos de preparación, el cambio de milenio pasó sin incidentes significativos, y el temido "problema del año 2000" resultó ser menos grave de lo que se temía.

El nuevo cuco: La Inteligencia Artificial

Ahora, en el siglo XXI, nos enfrentamos a una nueva predicción: el temor de que la inteligencia artificial (IA) sea perjudicial para el ser humano. Si bien es comprensible que existan preocupaciones legítimas sobre el impacto de la IA en la sociedad y en la fuerza laboral, es importante recordar los errores del pasado al evaluar estas predicciones.

La IA, en su forma actual, es una herramienta poderosa que puede mejorar la eficiencia, la precisión y la conveniencia en una amplia variedad de industrias. Desde la atención médica hasta la logística y la atención al cliente, la IA ya está demostrando su capacidad para revolucionar procesos y mejorar la calidad de vida.

¿La IA es totalmente inofensiva? Tampoco decimos eso. Por ejemplo la “singularidad tecnológica”[3] es totalmente posible, y cualquiera de nosotros lo puede demostrar preguntándole a ChatGPT o Gemini “¿qué mejoras tendría una siguiente versión de ti?”.

Otro punto preocupante es la creación de armas con IA capaces de seleccionar y atacar objetivos de manera autónoma, solos o en “enjambre” inteligente[4].

Lo único cierto, a estas alturas, es que no somos tan buenos para predecir el impacto de la tecnología y que siempre nos sorprenderá con nuevos desafíos y oportunidades.



[1] Solow, R. (1987): We’d Better Watch Out, revisión de S.S. Cohen y J. Zysman, Manufacturing Matters: The Myth of the Post-Industrial Economy, New York Times Book Review, 36.
Se puede leer en: https://www.standupeconomist.com/pdf/misc/solow-computer-productivity.pdf

[2] https://www.britannica.com/technology/Y2K-bug

[3] https://www.bbc.com/mundo/noticias/2014/10/141003_singularidad_finde_dv

[4] https://moderndiplomacy.eu/2023/11/26/a-i-controlled-killer-drones-become-reality/



1 comentarios:

Miguel Cáceres dijo...

Es posible que en el futuro en el contexto laboral, la IA decida contratar humanos para complementar sus conocimientos, es decir, el humano es el único que puede proveer información a los vacío que se pudiesen presentar. Otra paradoja de la IA.

Publicar un comentario