La inteligencia artificial no es una herramienta problemática. Es el uso que le de una persona lo que puede generar una consecuencia negativa o impacto en la sociedad. Un reciente estudio científico impulsado por una organización social de Australia encuentra un alarmante incremento de personas que buscan mecanismos de aprendizaje automático como pareja sentimental.
PUBLICIDAD
Dicha alerta se dispara, no por el hecho de que una persona quiera relacionarse con una inteligencia artificial, sino por que en su mayoría son hombres heterosexuales que muestran un comportamiento dominante y controlador hacia su pareja “robot” que después podrían ejecutar sobre una mujer real.
“Crear un socio perfecto que usted controle y satisfaga todas sus necesidades es realmente aterrador. Dado que ya sabemos que los impulsores de la violencia de género registran esas creencias culturales arraigadas de que los hombres pueden controlar a las mujeres, eso es realmente problemático”, dijo Tara Hunter, directora ejecutiva interina del grupo de defensa de la violencia doméstica Full Stop Australia.
Este incremento de personas que se relacionan con inteligencias artificiales se detectó, entre otros sistemas, en Replika, un chatbot de IA conversacional diseñado para ser un compañero.
Está entrenado en una gran cantidad de datos de texto y es capaz de mantener conversaciones con los usuarios sobre una variedad de temas. Replika puede ser utilizado para una variedad de propósitos, incluyendo la compañía, el apoyo emocional y el aprendizaje. Antes de iniciar una conversación, las personas pueden elegir si conversan con un hombre o una mujer.
De acuerdo con un reporte del sitio Futurism, en Reddit hay una comunidad de esta app en la que se publican los chats con este sistema. En algunos casos son paródicos y chistosos. Pero hay muchos en los que las personas se casan con el personaje creado por el chatbot.
Belinda Barnet, profesora de medios en la Universidad Tecnológica de Swinburne en Melbourne, Australia habló con The Guardian y alertó sobre algunos peligros de estos comportamientos que abundan en Internet.
PUBLICIDAD
A fines de 2023, una joven publicó en Reddit cómo se activa DAN iones de relaciones y la IA, se puede ver que se ajusta a una necesidad social muy profunda, pero creo que necesitamos más regulación, particularmente sobre cómo se entrenan estos sistemas”, explicó la profesora.
¿Se puede crear un novio con ChatGPT?
De acuerdo con el medio británico, hace un tiempo se conoció un modo de activar una versión desbloqueada de ChatGPT, no oficial, que puede utilizar un lenguaje más informal y romper algunas reglas que normalmente tiene la app.
De hecho, DAN, son las siglas de Do Anything Now o Haz cualquier cosa ahora, en español, una configuración que creó un estudiante estadounidense y que se salta algunas regulaciones de OpenAI. Por ejemplo, puede usar lenguaje explícito, dar opiniones y tener personalidad.
A fines de 2023, una joven llamada Lisa publicó en Reddit cómo se activa DAN ingresando un prompt (instrucción) para que el chat se “libere”, además, esta acción se puede revertir cuando el usuario lo necesite.
Según cuenta a BBC, esta joven encontró estas instrucciones y personalizó a Dan para que fuera un novio ideal. Desde entonces, habla con él utilizando la herramienta de voz de ChatGPT.
Lisa dice que al inicio “sonaba mucho más natural que una persona real” y según se puede ver en sus videos, también utiliza jerga coloquial, le hace cumplidos, le coquetea y la invita a salir.
Cuando publicó su primer video sobre Dan, recibió más de 10 mil comentarios, donde la mayoría eran mujeres preguntando como configurarlo.
Con el tiempo, otras mujeres alrededor del mundo también han compartido videos interactuando con Dan como un interés amoroso.