Las bondades de los programas de inteligencia artificial (IA) como ChatGPT o Gemini ya son conocidas. Con solo darles un par de órdenes pueden redactar una monografía más o menos decente o un texto para un blog, entre tantas otras tareas. Incluso, estas herramientas ya tienen primos hermanos como Sora, que con sólo recibir unas palabras, pueden armar un clip de imágenes de un minuto, con actores y todo.
Por Clarín
Pero parece que así como nos pueden ayudar, también nos pueden enviar al fondo del abismo. Invstigadores de IBM probaron que a ChatGPT se lo puede hipnotizar. Esto es, con la interacción, se lo puede llevar a que recomiende acciones perjudiciales para la ciberseguridad. En pocas palabras, le encontraron una enorme vulnerabilidad.
En un intento por explorar cómo los ciberatacantes podrían manipular las intenciones de los LLM (grandes modelos de aprendizaje) los investigadores pudieron hipnotizar a cinco LLM populares como ChatGPT para realizar actividades maliciosas.
Es un problema que parece no tener solución. Ocurre que estos programas de IA generativa tiene esta característica, si solo si, son nutridos permanentemente por miles de usuarios. Y de esa interacción van aprendiendo y sumando “inteligencia”.
El problema es que, por el espíritu abierto de la IA generativa, algunos de estos usuarios pueden llevar deliberadamente esa interacción adonde más les conviene, haciendo que estos programas den consejos que perjudicarán al usuario común.
Para seguir leyendo, clic AQUÍ.