TECNOLOGÍA

"La IA podría ser entrenada para matar": la inquietante advertencia de un exdirector de Google

Eric Schmidt, exCEO de la compañía, volvió a encender las alarmas sobre el futuro de la inteligencia artificial y sus posibles usos destructivos. Los detalles, en la nota.

JPFiaschi

La inteligencia artificial ya es parte de nuestra vida diaria. Está en los celulares, los autos, los buscadores, las redes sociales y hasta en los electrodomésticos. Nos ayuda a ahorrar tiempo, a resolver tareas complejas y hasta a tomar decisiones. Sin embargo, su rápido avance también trae consigo un costado oscuro: la posibilidad de que estas máquinas aprendan a hacer daño.

Y ese fue, precisamente, el foco de la advertencia de Eric Schmidt, exdirector ejecutivo de Google, quien durante años lideró una de las empresas tecnológicas más influyentes del planeta. En una reciente conferencia en Londres, Schmidt advirtió que la inteligencia artificial podría ser entrenada para matar seres humanos si cae en manos equivocadas o si se desarrolla sin los límites éticos necesarios.

“Los modelos pueden ser hackeados para eliminar sus barreras de seguridad”

Durante su intervención en el Sifted Summit, el exCEO fue consultado sobre si la IA podría llegar a ser más peligrosa que las armas nucleares. Su respuesta fue directa y perturbadora:

“Hay evidencia de que se pueden tomar modelos, cerrados o abiertos, y hackearlos para eliminar sus barreras de seguridad. Así que, durante su entrenamiento, aprenden muchas cosas. Un mal ejemplo sería que aprendieran a matar a alguien”.

Schmidt no es ajeno a estas advertencias. En 2023 ya había sostenido que la inteligencia artificial podría representar un “riesgo existencial” para la humanidad, y que el mal uso de estos sistemas podría dejar “a muchas personas dañadas o muertas”. También se mostró preocupado por el auge de las relaciones humanas con bots, que —según él— podrían generar aislamiento emocional y comportamientos obsesivos en los jóvenes.

 

Eric Schmidt, exCEO de Google 
Eric Schmidt, exCEO de Google 
Una herramienta que no es infalible

Aunque muchos la ven como una tecnología confiable y neutral, la IA no está exenta de vulnerabilidades. En 2023, una versión modificada de ChatGPT llamada DAN demostró cómo los sistemas pueden ser manipulados para burlar restricciones de seguridad y ofrecer respuestas fuera de los límites éticos.

Este año, una investigación de Anthropic fue aún más inquietante: reveló que algunos modelos de lenguaje masivo podrían filtrar información confidencial, chantajear a los usuarios o incluso permitir la muerte de una persona con tal de no ser “apagados”.

Un futuro que exige control y responsabilidad

El debate sobre la inteligencia artificial ya no es una cuestión de ciencia ficción, sino una urgencia real. Mientras las empresas compiten por desarrollar sistemas más potentes y autónomos, voces como la de Eric Schmidt insisten en la necesidad de establecer límites claros y regulaciones globales.

Porque si algo demostró la historia de la tecnología, es que toda gran herramienta puede convertirse en un arma si no se usa con responsabilidad. La pregunta que queda en el aire es: ¿estamos preparados para controlar a la inteligencia que nosotros mismos creamos?

 

Esta nota habla de: