top of page

¿Puede la inteligencia artificial llevar a una catástrofe nuclear?

Actualizado: 5 jun 2023


Si bien casi las tres cuartas partes de los investigadores creen que la inteligencia artificial “pronto podría conducir a un cambio social revolucionario”, el 36 % se preocupa de que las decisiones de la IA “puedan causar una catástrofe de nivel nuclear”.


Esos hallazgos de la encuesta se incluyen en el Informe del Índice de IA de 2023 , una evaluación anual de la industria de rápido crecimiento reunida por el Instituto Stanford para la Inteligencia Artificial centrada en el ser humano y publicada a principios de este mes.


“Estos sistemas demuestran capacidades en la respuesta a preguntas y la generación de texto, imagen y código inimaginables hace una década, y superan el estado del arte en muchos puntos de referencia, antiguos y nuevos”, dice el informe. “Sin embargo, son propensos a las alucinaciones, habitualmente sesgados y pueden ser engañados para que sirvan a fines nefastos, lo que resalta los complicados desafíos éticos asociados con su despliegue”.


Como informó Al Jazeera el viernes, el análisis “se produce en medio de crecientes llamados a la regulación de la IA luego de controversias que van desde un suicidio vinculado a un chatbot hasta videos falsos del presidente ucraniano Volodymyr Zelenskyy que parece rendirse a las fuerzas invasoras rusas”.


Hace solo tres semanas, Geoffrey Hinton, considerado el "padrino de la inteligencia artificial", le dijo a Brook Silva-Braga de CBS News que los impactos potenciales de la tecnología que avanza rápidamente son comparables a "la Revolución Industrial, o la electricidad, o tal vez la rueda".


Cuando se le preguntó sobre las posibilidades de que la tecnología “aniquile a la humanidad”, Hinton advirtió que “no es inconcebible”.


Ese potencial alarmante no reside necesariamente en las herramientas de IA existentes actualmente, como ChatGPT, sino más bien en lo que se denomina "inteligencia general artificial" (AGI), que abarcaría a las computadoras que desarrollan y actúan según sus propias ideas.


“Hasta hace poco, pensé que pasarían de 20 a 50 años antes de que tuviéramos IA de propósito general”, dijo Hinton a CBS News . “Ahora creo que pueden ser 20 años o menos”.

Presionado por Silva-Braga si podría suceder antes, Hinton admitió que no descartaría la posibilidad de que AGI llegara dentro de cinco años, un cambio significativo con respecto a hace unos años cuando "habría dicho: 'De ninguna manera'".


“Tenemos que pensar mucho sobre cómo controlar eso”, dijo Hinton. Cuando se le preguntó si eso es posible, Hinton dijo: "No lo sabemos, aún no hemos estado allí, pero podemos intentarlo".


El Financial Times informó el viernes que Tesla y el CEO de Twitter, Elon Musk, quien firmó la carta pidiendo una pausa, está “desarrollando planes para lanzar una nueva empresa de inteligencia artificial para competir con” OpenAI.


En medio del “interés regulatorio creciente” en un “mecanismo de rendición de cuentas” de IA, la administración Biden anunció esta semana que está buscando comentarios públicos sobre las medidas que podrían implementarse para garantizar que “los sistemas de IA sean legales, efectivos, éticos, seguros y confiables”. .”

24 visualizaciones0 comentarios
bottom of page