28 septiembre, 2025

Primicias de la política, empresariales y de la farandula

¿Será que la IA acogerá los fundamentos éticos que la limiten?

Haga Click

Image Map

Por Claudia Posada 

En la industria de la Inteligencia Artificial (IA) Sam Altman, de 40 años, es una de las figuras mas conocidas en el mundo como CEO de Open AI, cuenta con 800 millones de usuarios activos semanales, es decir el 10% de la población mundial, y hace pocos meses testificó en el Congreso de EE.UU. pidiendo la regulación de la IA, una acción reconocida como de gran valor pues si bien se sabe que la IA es la que manda en miles de actividades de hoy, también es urgente su control y regulación. Geoffrey Hinton, por su parte, a quien se le dice el “padrino de la IA”, anda preocupado con la tecnología que ayudó a crear pues hoy por hoy considera que puede acabar con la humanidad. Al científico informático Hinton, galardonado con el Premio Nobel de Física y exejecutivo de Google, se le ha oído insistir en que existe entre un 10 % y un 20 % de probabilidades de que la IA acabe con los humanos. Sobre el futuro de la IA él advirtió: “Los sistemas de IA podrían ser capaces de controlar a los humanos tan fácilmente como un adulto puede sobornar a un niño de tres años con dulces. Este año ya se han visto ejemplos de sistemas de IA dispuestos a engañar, a hacer trampa y a robar para alcanzar sus objetivos. Por ejemplo, para evitar ser reemplazado, un modelo de IA intentó chantajear a un ingeniero sobre una aventura amorosa que descubrió en un correo electrónico”.

Es tan delicada la advertencia que, Emmett Shear, quien se desempeñó alguna vez como director ejecutivo interino de OpenAI, dueña de ChatGPT, dijo “no me sorprende que algunos sistemas de IA hayan intentado chantajear a humanos o evitar órdenes de apagado”. Nos podemos imaginar qué será del mundo con equipos trabando bajo IA a los que no se les pueda controlar y ni siquiera dar ordenes de apagado cuando sea inminente un caos. Hinton ha dicho: “Hay buenas razones para creer que cualquier tipo de agenda de IA intentará mantenerse viva”. Siendo pionero en redes neuronales él ayudó a allanar el camino para el auge de la IA, sin embargo, en el 2023 renunció a Google para tener la libertad de hablar públicamente sobre los peligros de la IA. Lo cierto es que mientras más se descubre que estamos envueltos en las redes de la IA, que en donde menos pensamos que actúan, que influyen en la creación de lo que ni imaginamos, sus peligros se hacen más fuertes. Tal parece que hay tendencias que invitan a intentar inculcar valores humanos a los sistemas de IA, mientras otros creen que un enfoque más inteligente sería forjar relaciones colaborativas entre humanos y la IA. La velocidad de los alcances tecnológicos nos asusta, no salimos de una sorpresa cuando nos llega otra más asombrosa; expertos creen que las IA alcanzarán la superinteligencia, llamada también Inteligencia Artificial General (AGI) y al respecto Hinton dijo que “antes pensaba que podrían pasar entre 30 y 50 años para lograr la AGI, pero ahora ve que ese momento llegará antes”. Lo que síemociona con satisfacción a Hinton es la esperanza de que la tecnología abrirá camino a avances médicos importantísimos: “Vamos a ver medicamentos radicalmente nuevos. Vamos a tener tratamientos contra el cáncer mucho mejores que los actuales”, señaló que la IA ayudará a los médicos a examinar y correlacionar la gran cantidad de datos producidos por resonancias magnéticas y tomografías computarizadas”.

Hay otro aspecto a observar y que nos es más fácil entender entre los inconvenientes de la IA porque es lo relacionado con lo que afecta al medio ambiente, son los daños que se derivan principalmente del excesivo consumo de energía y agua que requieren los centros de datos que soportan su operación, así como los residuos electrónicos que genera su hardware, su uso se expande y cada día son programas más sofisticados.  Los centros de datos para entrenar y operar modelos de IA pueden emitir cientos de toneladas de CO2 y ya lo ha dicho la Agencia Internacional de la Energía (AIE) “la demanda de electricidad de los centros de datos a nivel mundial podría duplicarse para 2026, lo que ejerce una presión considerable sobre las redes eléctricas”.

Rematemos este tema tan actual y complejo, tan ajeno a nosotros los comunes mortales, pero a la vez tan cercano porque nos rodea y se nos mete en todo sin darnos cuenta, recurriendo a la misma IA para que nos diga cuales son sus problemas éticos: “Los principales desafíos éticos de la Inteligencia Artificial (IA) incluyen el sesgo algorítmico que perpetúa la discriminación, la privacidad y el uso de datos, la falta de transparencia en la toma de decisiones, el impacto en el empleo debido a la automatización, los problemas de responsabilidad cuando la IA causa daño, el riesgo de manipulación de la información y la creación de armas autónomas. Abordar estos retos requiere marcos éticos sólidos, regulaciones como la AI Act de la Unión Europea y la colaboración entre desarrolladores, legisladores y la sociedad para asegurar que la IA sea utilizada de manera justa y beneficie a todos”.