La IA puede crear vínculos más estrechos con los robots que con los humanos, preocupa OpenAI

La IA puede crear vínculos más estrechos con los robots que con los humanos, preocupa OpenAI

Socializar con IA también podría hacer que los usuarios sean menos capaces de establecer relaciones (representacionales) con los humanos.

San Francisco, Estados Unidos:

A OpenAI le preocupa que una función de voz realista para su inteligencia artificial pueda hacer que las personas se vinculen con el bot a expensas de las interacciones humanas.

La compañía con sede en San Francisco citó documentos que indican que chatear con IA como lo haría con una persona puede generar una confianza equivocada y que la alta calidad de voz de GPT-4o puede exacerbar este efecto.

«La antropomorfización implica atribuir comportamientos y características similares a los humanos a entidades no humanas, como los modelos de IA», dijo OpenAI el jueves en un informe sobre el trabajo de seguridad que está realizando en una versión ChatGPT -4o de su IA.

“Este riesgo puede verse incrementado por las capacidades de audio de GPT-4o, que facilitan más interacciones humanas con el modelo. »

OpenAI dijo que notó que los evaluadores hablaban con la IA de maneras que insinuaban conexiones compartidas, como lamentarse en voz alta de que era su último día juntos.

Dijo que estos casos parecen leves, pero es necesario estudiarlos para ver cómo podrían progresar durante períodos de tiempo más largos.

Según OpenAI, socializar con IA también podría hacer que los usuarios sean menos hábiles o menos inclinados a mantener relaciones con los humanos.

«La interacción prolongada con el modelo podría influir en las normas sociales», dice el informe.

“Por ejemplo, nuestros modelos son deferentes y permiten a los usuarios interrumpir y 'agarrar el micrófono' en cualquier momento, lo que, si bien se espera de una IA, sería antinormativo en las interacciones humanas. »

Según OpenAI, la capacidad de la IA para recordar detalles durante una conversación y realizar tareas también podría hacer que las personas dependan demasiado de la tecnología.

“Las preocupaciones recientes compartidas por OpenAI con respecto a la posible dependencia de ChatGPT del modo de voz indican lo que muchos ya han comenzado a preguntarse: ¿es hora de hacer una pausa y considerar cómo esta tecnología afecta la interacción y las relaciones humanas? dijo Alon Yamin, cofundador y director ejecutivo de la plataforma de detección de plagio Copyleaks.

Dijo que la IA nunca debería reemplazar la interacción humana real.

OpenAI dijo que probaría más a fondo cómo las capacidades vocales de su IA podrían llevar a las personas a desarrollar un vínculo emocional.

Los equipos que probaron las capacidades de voz de ChatGPT-4o también pudieron engañarlo para que repitiera información falsa y produjeran teorías de conspiración, lo que generó preocupaciones de que se pudiera engañar al modelo de IA para que lo hiciera de manera convincente.

OpenAI se vio obligada a disculparse con la actriz Scarlett Johansson en junio por usar algo muy similar a su voz en su último chatbot, poniendo el foco en la tecnología de clonación de voz.

Aunque OpenAI negó que la voz utilizada fuera la de Johansson, su CEO Sam Altman no ayudó en su caso, quien marcó el nuevo modelo con un mensaje de una sola palabra en las redes sociales: «Ella».

Johansson prestó su voz a un personaje de IA en la película «Her», que Altman dijo anteriormente que era su película favorita sobre tecnología.

La película de 2013 está protagonizada por Joaquin Phoenix como un hombre que se enamora de una asistente de inteligencia artificial llamada Samantha.

(A excepción del titular, este artículo no ha sido editado por el personal de NDTV y se publica desde un feed sindicado).

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *