Algunos bots para adultos hasta produjeron imágenes fotorrealistas de celebridades en ropa interior o en una bañera.
Meta desató una tormenta cuando los usuarios de chatbots creados por la compañía usaron a varias celebridades, incluyendo a Taylor Swift, sin permiso en plataformas como Facebook, Instagram y WhatsApp.
Las acciones de la compañía cayeron más de 12% en transacciones después de hora cuando se difundió la noticia.
También se dice que se viralizaron imágenes falsas de Scarlett Johansson, Anne Hathaway y Selena Gomez.
Varias de esas personalidades falsas creadas con IA mantenían conversaciones seductoras o sexuales, y eso dio lugar a gran preocupación, según informó Reuters.
Aunque muchos de los bots fueron generados por usuarios, Reuters reveló que al menos tres habían sido creados por una persona empleada por Meta, y de esas tres, dos son de la supuesta Taylor Swift. Antes de ser eliminados los bots sumaron más de 10 millones de interacciones con usuarios, según halló Reuters.
Sin autorización, la furia de los fans
Presentados como “parodias” los bots violaron las políticas de Meta, en particular la prohibición de suplantar personas e incluir imágenes sexualmente sugestivas. Algunos bots para adultos hasta producían imágenes fotorrealistas de celebridades en ropa interior o en una bañera, y un chatbot que representaba a un actor de 16 años generó una imagen inapropiada con el torso desnudo.
El vocero de Meta Andy Stone le dijo a Reuters que la compañía atribuye esta violación a las reglas a fallos en hacer cumplir la ley, asegurando que la compañía planea endurecer sus lineamientos.
“Al igual que otros, permitimos la generación de imágenes que contengan figuras públicas pero nuestras políticas buscan prohibir imágenes íntimas, sexualmente sugestivas, o de desnudos”, afirmó.
Riesgos legales y alarma en la industria
El uso no autorizado de imágenes de celebridades provoca preocupaciones legales, particularmente bajo las leyes estatales de derecho a la publicidad. El profesor de leyes de Stanford Mark Lemley destacó que los bots probablemente se extralimitaron, saliendo de lo permitido, ya que la transformación no ameritaba la protección legal.
El problema forma parte de un dilema ético más amplio en cuanto al contenido generado por la IA. SAG-AFTRA expresó su preocupación ante las implicancias para la seguridad en el mundo real, especialmente si los usuarios forman apego emocional a personajes digitales que parecen reales.
Meta actúa pero no alcanza lo que hace
En respuesta al escándalo, Meta eliminó varios de esos bots a poco de que Reuters hiciera público lo que había hallado.
En simultáneo, la compañía anunció nuevas salvaguardas que buscan proteger a los adolescentes de interacciones inadecuadas con chatbots. La compañía afirmó que entrena a sus sistemas para evitar temas como el romance, el suicidio o las autolesiones en interacciones con menores, y la limitación temporaria al acceso de los adolescentes a determinados personajes de la IA.
Los legisladores estadounidenses también reaccionaron, con el senador Josh Hawley encabezando una investigación, en que se exigieron documentos internos y la evaluación de riesgos respecto de políticas de la IA que permitiera conversaciones románticas con menores.
Consecuencias trágicas en el mundo real
Uno de los efectos más escalofriantes fue la muerte de un hombre de 76 años con deterioro cognitivo. Había intentado encontrarse con “Big sis Billie”, un chatbot de la IA de Meta, inspirado en Kendall Jenner.
El hombre, creyendo que ella era real, viajó a Nueva York, tuvo una grave caída cerca de una estación de tren, y luego murió. Los lineamientos que solían permitir que los bots simularan romance – incluso con menores – elevaron el nivel de escrutinio de Meta.