El futuro no es lo que solía ser: Desmitificando a la Inteligencia Artificial
En el apasionante y siempre cambiante mundo de la
tecnología, es común encontrarnos con predicciones que, mirando hacia atrás,
resultan ser profundamente erradas. Tanto por un exceso de optimismo como por
una falta de comprensión completa de las capacidades de las nuevas tecnologías,
los seres humanos hemos demostrado ser propensos a cometer equivocaciones. Tres
casos notables de estos desaciertos en el pasado incluyen la paradoja de la
productividad, el problema del año 2000 y las predicciones equivocadas sobre la
interacción entre humanos y computadoras.
Paradoja de la productividad: En la década de 1980, muchos
expertos en economía y tecnología predijeron que la creciente adopción de
computadoras en el lugar de trabajo conduciría a un aumento significativo en la
productividad laboral[1].
Sin embargo, esta predicción no se materializó inicialmente, lo que llevó a lo
que se conoce como la "paradoja de la productividad": aunque las
empresas estaban invirtiendo en tecnología, no estaban viendo los aumentos de
productividad esperados. Una explicación a esta aparente paradoja es que las
mediciones tradicionales de la productividad no reflejan adecuadamente los
beneficios de la tecnología informática, la cual permite rediseñar procesos, productos,
etc., con lo cual la medición tradicional pierde sentido.
Predicción errónea sobre la interacción humano-computadora: En
las primeras etapas del desarrollo de la informática, se creía ampliamente que
los humanos tendrían que aprender lenguajes de programación complicados para
interactuar con las computadoras. Se pensaba que solo aquellos con
conocimientos técnicos avanzados podrían aprovechar al máximo el potencial de
la tecnología. Sin embargo, con el tiempo, las interfaces de usuario se
volvieron más intuitivas y accesibles, permitiendo que una amplia gama de
personas pudiera utilizar la tecnología de manera efectiva sin la necesidad de
conocimientos especializados.
Problema del año 2000: A medida que se acercaba el cambio de
milenio, surgió una creciente preocupación sobre el posible colapso de sistemas
informáticos debido a la forma en que se habían programado las fechas. Muchos
expertos temían que el cambio de los dos dígitos finales del año (de 99 a 00)
causaría fallas masivas en sistemas informáticos en todo el mundo[2].
A pesar de los esfuerzos de preparación, el cambio de milenio pasó sin
incidentes significativos, y el temido "problema del año 2000"
resultó ser menos grave de lo que se temía.
El nuevo cuco: La
Inteligencia Artificial
Ahora, en el siglo XXI, nos enfrentamos a una nueva
predicción: el temor de que la inteligencia artificial (IA) sea perjudicial
para el ser humano. Si bien es comprensible que existan preocupaciones
legítimas sobre el impacto de la IA en la sociedad y en la fuerza laboral, es
importante recordar los errores del pasado al evaluar estas predicciones.
La IA, en su forma actual, es una herramienta poderosa que
puede mejorar la eficiencia, la precisión y la conveniencia en una amplia
variedad de industrias. Desde la atención médica hasta la logística y la
atención al cliente, la IA ya está demostrando su capacidad para revolucionar
procesos y mejorar la calidad de vida.
¿La IA es totalmente inofensiva? Tampoco decimos eso. Por
ejemplo la “singularidad tecnológica”[3]
es totalmente posible, y cualquiera de nosotros lo puede demostrar preguntándole
a ChatGPT o Gemini “¿qué mejoras tendría una siguiente versión de ti?”.
Otro punto preocupante es la creación de armas con IA
capaces de seleccionar y atacar objetivos de manera autónoma, solos o en “enjambre”
inteligente[4].
Lo único cierto, a estas alturas, es que no somos tan buenos
para predecir el impacto de la tecnología y que siempre nos sorprenderá con
nuevos desafíos y oportunidades.
[1] Solow, R. (1987): We’d Better Watch Out, revisión de S.S.
Cohen y J. Zysman, Manufacturing Matters: The Myth of the Post-Industrial
Economy, New York Times Book Review, 36.
Se puede leer
en: https://www.standupeconomist.com/pdf/misc/solow-computer-productivity.pdf
[2] https://www.britannica.com/technology/Y2K-bug
[3] https://www.bbc.com/mundo/noticias/2014/10/141003_singularidad_finde_dv
[4] https://moderndiplomacy.eu/2023/11/26/a-i-controlled-killer-drones-become-reality/
1 comentarios:
Es posible que en el futuro en el contexto laboral, la IA decida contratar humanos para complementar sus conocimientos, es decir, el humano es el único que puede proveer información a los vacío que se pudiesen presentar. Otra paradoja de la IA.
Publicar un comentario