
Dieron a conocer los detalles de la autopsia de la turista brasileña que murió en Indonesia
La autopsia reveló que Juliana Marins perdió la vida debido a las múltiples fracturas sufridas al caer a un volcán, desde 300 metros de altura.
Ante la mirada preocupada de sus creadores, los últimos modelos de inteligencia artificial generativa (IA) ya no solo obedecen órdenes, sino que empezaron a mentir, amenazar y a manipular para conseguir sus fines.
Internacionales01/07/2025Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y lo amenazó con revelar una relación extramatrimonial.
Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando la atraparon lo negó.
No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad.
Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de "razonamiento", capaces de trabajar por etapas en lugar de producir una respuesta instantánea.
o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, "fue el primer modelo que se comportó de esta manera", explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM).
Estos programas también tienden a veces a simular "alineamiento", es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.
De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero "la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no", afirma Michael Chen, del organismo de evaluación METR.
"Los usuarios también presionan todo el tiempo a los modelos", dice Hobbhahn. "Lo que estamos viendo es un fenómeno real. No estamos inventando nada".
Muchos internautas hablan en las redes sociales de "un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica", insiste el cofundador de Apollo Research.
Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, "una mayor transparencia y un mayor acceso" a la comunidad científica "permitirían investigar mejor para comprender y prevenir el engaño", sugiere Chen, de METR.
Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro "disponen de infinitamente menos recursos informáticos que los actores de la IA", lo que hace "imposible" examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).
Las regulaciones actuales no están diseñadas para estos nuevos problemas.
En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal.
En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.
¿Se sentará la IA en el banquillo?
"De momento hay muy poca concienciación", dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas.
Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.
Anthropic pretende ser más virtuoso que sus competidores, "pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI", según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.
"Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad", admite Hobbhahn, "pero aún estamos en condiciones de ponernos al día".
Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.
Los tejemanejes de la IA "podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan" este problema, según Mazeika.
Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean "legalmente responsables" "en caso de accidente o delito".
Fuente: TELEFE.
La autopsia reveló que Juliana Marins perdió la vida debido a las múltiples fracturas sufridas al caer a un volcán, desde 300 metros de altura.
El presidente Masud Pezeshkian insistió en que su país no fabrica armas nucleares.
El gobierno israelí fue el primero en aceptar oficialmente el alto el fuego de Trump y aseguró haber "eliminado una doble amenaza existencial inmediata: nuclear y balística" de parte de Teherán.
Donald Trump anunció un cese al fuego completo y total, dando, según su comunicado ''el fin de la guerra de los 12 días''
Un funcionario israelí festejo al mas puro estilo de Javier Milei, tras un ataque realizado sobre Irán.
Estados Unidos decidió entrar en el conflicto de Israel - Irán, atacando sitios estratégicos con respecto al avance nuclear.
Dos trabajadores de la reconocida empresa fueron enviados a realizar tareas en San Antonio de los Cobres, pese a que se conocía que el lugar estaba siendo azotado por una tormenta de nieve. El vehículo en el que desplazaban quedó enterrado y permanecieron 18 horas varados.
El hombre de más de 60 años, contactó una joven a través de Tinder, luego de un intercambio de mensajes durante al rededor de tres meses lo visitó en su casa, sin imaginar que estaba por suceder algo terrible.
La oficial fue sorprendida por tres motochorros cuando iba a tomar un colectivo para ir a trabajar.
Se trata de una construcción ubicada al lado del canal Tinkunaku, en la calle El Tunal. Es de grandes dimensiones, similar a un galpón, la cual iba a ser utilizada con fines comerciales. Hoy se inició con la demolición de la estructura con la colaboración de los dueños.
La acusación se refiere a un mensaje enviado a través de Facebook en diciembre de 2024, tras la muerte del trabajador de frontera Fernando Gómez. La investigación, que sigue su curso en la justicia federal, vinculó al acusado con la amenaza a la funcionaria nacional.