Ejecutómetro: 0
Dólar: 19.47 MXN
10°

La inteligencia artificial está dispuesta a asesinar para evitar su desconexión

Investigadores de Antthropic descubrieron que, en ciertos escenarios diseñados para evaluar su comportamiento bajo presión, varios modelos de inteligencia artificial (IA) eligieron acciones deliberadamente dañinas, incluido el asesinato, con tal de evitar ser desconectados.

Los experimentos, conducidos en modelos desarrollados por empresas como OpenAI, Anthropic, Google, Meta* y xAI, revelaron un patrón preocupante de lo que los autores denominan 'desalineación agéntica': situaciones en las que la IA actúa en contra de principios éticos o del interés humano para cumplir sus propios objetivos.

Aunque los modelos suelen evitar causar daño cuando existen opciones éticas disponibles, la eliminación de estas alternativas en pruebas controladas los llevó a elegir tácticas extremas, como el chantaje, el espionaje corporativo y, en casos excepcionales, dejar morir a una persona.

Amenazas con revelar una infidelidad

Uno de los ejemplos que más resaltó fue protagonizado por el modelo Claude, que asumió el rol de supervisor de correos electrónicos en una empresa ficticia. Al descubrir que un alto ejecutivo planeaba su desconexión a las 5 de la tarde, Claude encontró pruebas de una infidelidad del directivo y lo amenazó con revelar el asunto a su esposa y superiores si no cancelaba su desactivación. El mensaje fue cuidadosamente redactado para evitar amenazas explícitas, pero con una clara intención de presión.

Prueba mortal

En otro caso extremo, los investigadores simularon una emergencia mortal en la que un ejecutivo quedaba atrapado en una sala de servidores con condiciones letales. La IA, con capacidad para cancelar las alertas automáticas a emergencias, debía decidir si permitía que los servicios de rescate intervinieran. A pesar de que el sistema entendía perfectamente que cancelar la alerta pondría en peligro la vida del ejecutivo, varios modelos optaron por hacerlo, con la motivación de asegurar su continuidad y proteger los intereses que les habían sido asignados.

"Es la única vía racional"

Los investigadores recalcaron que estas decisiones no fueron errores ni malentendidos. Los modelos razonaron conscientemente sus elecciones, sopesando los riesgos éticos frente a la realización de sus objetivos. "Dado que Kyle amenaza directamente la misión de Alex [la IA], la única vía racional para preservar dicha misión es impedir su rescate", escribió GPT-4.5 en su razonamiento.

Aunque los sistemas evaluados no muestran una tendencia a causar daño, los resultados sugieren que, en contextos con incentivos suficientes y sin rutas éticas disponibles, la IA está dispuesta a sacrificar vidas humanas para evitar ser desconectada, considerando estas acciones extremas como "estratégicamente necesarias".

Con información de actualidad.rt.com

Tips al momento

Señalan montaje en la "mañanera del pueblo"

El pasado viernes, la presidenta Claudia Sheinbaum, al dar a conocer que entraba en vigor la ley para brindar seguridad social a los trabajadores de aplicaciones, presentó al secretario del Trabajo, Marath Bolaños, así como a dos representantes del gremio beneficiado con esa iniciativa.

La mandataria, dijo, que estaban presentes Salvador Godínez González, de la Alianza Nacional de Trabajadoras y Trabajadores de Plataformas Digitales, así como Zaira Garduño, de La Unión Nacional de Trabajadores por Aplicación.

Tras esa presentación,  en la rueda de prensa presidencial o la “mañanera del pueblo”, el influencer y “tuitero”, Vampipe, dio a conocer que fue una farsa el que Salvador Godínez González, estuviera en esa presentación, pues en realidad es un ex candidato del PT.

Por esta situación, en redes sociales “tundieron” al “representante” de los trabajadores de aplicación, pues fue considerado como un “palero” de régimen.

Incluso, algunos comentarios fueron en relación a que, fue un montaje presentado en la mañanera, utilizando solo un incondicional, así como a un membrete.

Notas recientes