OpenAI advierte que su nuevo modelo de IA tiene un “riesgo medio de seguridad” y puede generar dependencia emocional

OpenAI advierte que su nuevo modelo de IA tiene un “riesgo medio de seguridad” y puede generar dependencia emocional

El modelo GPT-4o se ha evaluado exhaustivamente para detectar posibles riesgos. | Foto: SOPA Images/LightRocket via Gett

 

 

 





OpenAI advirtió que su modelo GPT-4o registra un riesgo “medio” en relación con su capacidad de persuasión (sobre todo, en interacciones de texto) y que puede generar dependencia emocional en los usuarios, debido a sus avances de voz y audio.

Por Semana

La compañía dirigida por Sam Altman lanzó el modelo GPT-4o en el mes de mayo, cuando destacó sus habilidades para aceptar cualquier combinación de texto, audio e imagen y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar a un tiempo de respuesta humana.

La tecnológica ha compartido ahora un informe interno denominado ‘Tarjeta de Sistema de su modelo GPT-4o’ (‘GPT-4o System Card’), en el que detalla los resultados de la investigación sobre la seguridad de este modelo de IA generativa. En este estudio se explica que se ha evaluado este modelo “exhaustivamente” para detectar posibles riesgos y, con base en ello, incorporar medidas de seguridad adecuadas, antes de implementarlo en ChatGPT o en la API.

En concreto, la firma ha destacado como resultado de la investigación un riesgo “medio” en las capacidades de persuasión del modelo, así como ha advertido sobre el riesgo de antropomorfización, que puede causar dependencia emocional para los usuarios, al facilitar que depositen su confianza en la IA por tener características similares a las de un humano.

De entre las cuatro categorías generales de riesgo, que comprenden ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión, OpenAI ha detectado dicho nivel de riesgo en esta última. Sobre todo, en el formato de texto del modelo, donde los investigadores han detallado que GPT-4o puede influir en las opiniones de los usuarios.

El estudio también ha puesto sobre la mesa cómo los resultados de GPT-4o pueden influir más en los lectores que un texto escrito propiamente por un humano, incluso, comparándolo con artículos escritos por profesionales.

Por su parte, la persuasión en la modalidad de voz fue calificada como de bajo riesgo, tanto para las conversaciones interactivas de múltiples turnos como para los clips de audio más largos.

Para seguir leyendo, clic AQUÍ.