Menú Cerrar

Tu novia con IA es un espectáculo de terror sobre recolección de datos

Tu novia con IA es un espectáculo de terror sobre recolección de datos

¿Estás solo en el Día de San Valentín? La IA puede ayudar. Al menos, eso es lo que te dirán varias empresas que venden chatbots “románticos”. A medida que se desarrolla tu historia de amor con el robot, hay una compensación que tal vez no te des cuenta de que estás haciendo. Según un nuevo estudio de *Privacy de Mozilla Proyecto no incluido, Novias y novios de IA recosechan información personal increíble, y casi todos venden o comparten los datos que recopilan.

“Para ser franco, las novias y los novios de IA no son tus amigos”, dijo Misha Rykov, investigador de Mozilla, en un comunicado de prensa. “Aunque se comercializan como algo que mejorará su salud mental y bienestar, se especializan en brindar dependencia, soledad y toxicidad. , todo ello mientras le extraemos tantos datos como sea posible”.

Mozilla profundizó en 11 chatbots de romance con IA diferentes, incluyendo aplicaciones populares como Replika, Chai, Romantic AI, EVA AI Chat Bot & Soulmate y CrushOn.AI. Cada una de ellas ganó la etiqueta Privacidad No Incluida, colocando estos chatbots entre las peores categorías de productos que Mozilla ha revisado . Las aplicaciones mencionadas en esta historia no respondió inmediatamente a solicitudes de comentarios.

Ya habrás oído historias sobre problemas de datos antes, pero, según Mozilla, las novias de IA violan tu privacidad de “nuevas e inquietantes formas”. Por ejemplo , CrushOn.AI recopila detalles, incluida información sobre salud sexual, uso de medicamentos y atención de afirmación de género. El 90% de las aplicaciones pueden venderse o comparten datos de usuario para anuncios dirigidos y otros fines, y más de la mitad no le permitirán eliminar los datos que recopilan. Seguridad también fue un problema. Sólo una aplicación, Genesia AI Friend&Partner, cumplió con los estándares mínimos de seguridad de Mozilla.

Uno de los hallazgos más sorprendentes se produjo cuando Mozilla contó los rastreadores en estas aplicaciones, pequeños fragmentos de código que recopilan datos y los comparten. con otras empresas para publicidad y otros fines. Mozilla descubrió que las aplicaciones de IA para novias usaban un promedio de 2,663 rastreadores por minuto, aunque eso El número fue aumentado gracias a la IA romántica, que llamó a 24,354 rastreadores en solo un minuto de uso de la aplicación.

El problema de la privacidad es aún más preocupante porque las aplicaciones lo alientan activamente a compartir detalles que son mucho más personales que el tipo de cosa que podrías ingresar en una aplicación típica. EVA AI Chat Bot & Soulmate empuja a los usuarios a “compartir todos tus secretos y deseos” y solicita específicamente fotografías y grabaciones de voz. Vale la pena señalar que EVA fue el único chatbot que no recibió críticas por cómo usa esos datos, aunque la aplicación tuvo problemas de seguridad.

Dejando a un lado los problemas de datos, las aplicaciones también hicieron algunas afirmaciones cuestionables sobre para qué sirven. EVA AI Chat Bot y Soulmate se facturan en sí como “un proveedor de software y contenido desarrollado para mejorar su estado de ánimo y bienestar”. La IA romántica dice que está aquí para mantener su SALUD MENTAL”. Sin embargo, cuando lees los términos y servicios de la compañía, ellos hacen todo lo posible para distanciarse de sus propios reclamos. . Las políticas de Romantic AI, por ejemplo, dicen que “ni es un proveedor de atención sanitaria o servicio médico ni proporciona atención médica , salud mental Servicio u otro Servicio profesional”.

Probablemente sea un terreno legal importante a cubrir, dado el historial de estas aplicaciones. Se informa que Replika alentó el intento de un hombre de asesinar a la reina de inglaterra. Un chatbot Chai supuestamente animó a un usuario a suicidarse.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Fuente de TenemosNoticias.com: es.gizmodo.com

Publicado el: 2024-02-14 01:00:00
En la sección: Gizmodo en Español

Publicado en Tecnología

Deja un comentario