OpenAI advierte que podrías enamorarte del «Siri» de ChatGPT

OpenAI publicó un informe que detalla el trabajo de seguridad que llevaron a cabo previo al lanzamiento de GPT-4o. El documento técnico ofrece detalles sobre la evaluación de riesgos potenciales, así como las salvaguardas implementadas en el modelo de lenguaje. Dentro del informe destaca una sección que indica que el nuevo asistente de voz de ChatGPT tiene cualidades para generar un vínculo emocional con los usuarios.

El apartado en cuestión se titula «Antropomorfización y dependencia emocional» y menciona el riesgo de atribuir comportamientos y características humanas a un modelo de IA. En el caso del asistente de voz, los avances en las capacidades de audio de GPT-4o permiten una interacción más «humana» con ChatGPT. Debido a ello, los usuarios podrían confundirse o generar un lazo con el chatbot.

OpenAI menciona que algunos ejemplos que encontraron durante la fase de pruebas del asistente de voz. La compañía señala que algunos usuarios utilizaron un lenguaje que mostraba signos de un vínculo con ChatGPT. Aunque a primera vista los casos parecen benignos, intimar con un chatbot de inteligencia artificial tendría efectos negativos en el largo plazo.

Asistente de voz para ChatGPTAsistente de voz para ChatGPT

«La socialización similar a la humana con un modelo de IA puede producir externalidades que afecten a las interacciones entre humanos», indica la empresa. «Los usuarios pueden formar relaciones sociales con la IA, reduciendo su necesidad de interacción humana, lo que podría afectar las relaciones saludables.»

Otro efecto adverso de la interacción extendida con ChatGPT tiene que ver con las normas sociales. Debido a que el asistente permite la interrupción en todo momento, las personas podrían pensar que es un comportamiento normal que puede llevarse a cabo en una conversación con otro ser humano.

Ver fuente

Related Post