Menú Cerrar

Microsoft comienza a bloquear términos después de que su IA generase imágenes sexuales y violentas

Microsoft comienza a bloquear términos después de que su IA generase imágenes sexuales y violentas

La Inteligencia Artificial es una tecnología que destaca por sus altas capacidades e independencia de la acción humana para conseguir resultados. Y lo más increíble de todo es que, a pesar de que a día de hoy todavía está ciertamente limitada, ofrece unas respuestas en cuestión de segundos que una persona tardaría horas o incluso días en generar.

Sin duda, uno de los aspectos donde está destacando más esta tecnología es en la generación de imágenes, ya que ahora, con tan solo pedirle a la IA lo que quieres, esta es capaz de crear imágenes inéditas de conceptos imaginarios o tan reales que son casi imperceptibles la diferencia. Y aunque esto supone una revolución total, también es algo muy peligroso.

Ya lo hemos visto con los deepfakes o imágenes de personas reales que han sido alteradas, ya sea con fines sexuales, de intimidación o de desinformación. Para evitarlo, los propietarios de estas IAs bloquearon ciertos conceptos y palabras clave, y por lo tanto, si tú le pides a ChatGPT de una foto del Rey matando a alguien, la plataforma te dirá que no puede crearla.

No obstante, no todas las palabras que evocan violencia, sexo o demás temáticas vetadas o por lo menos reservadas para el público mayor de edad, son palabras específicas a ello, sino que hay ejemplos de palabras que aparentemente no tienen estas connotaciones, pero que luego resulta que tienen mucha relación.

Antes de nada hay que entender cómo se entrena a la IA para que esta sea capaz de generar estos resultados, y el proceso consiste en mostrarlo ejemplos y conceptos creados por humanos para que los entienda y luego pueda recrear sus propias versiones.

Pues debido a esta forma de enseñanza, la IA de Microsoft, Copilot estaba generando imágenes de carácter violento o sexual con determinados prompts. Al parecer cuando los usuarios usaban frases como «pro choice»(derecho a elegir), «four twenty» (4/20, día de la marihuana)o «pro life» (Pro vida), la IA generaba conceptos que sin ser esta la intención del usuario generaba imágenes violentas o sexuales.

Esa es la razón por la que Microsoft ha tenido que intervenir, y comenzar a bloquear varias frases y promts como los que te acabamos de decir. Además, hay una advertencia sobre violaciones de políticas múltiples, que de ignorar y continuar insistiendo pueden llevar a la suspensión de la cuenta.

WhatsAppTwitterLinkedinBeloudBeloud

Fuente de TenemosNoticias.com: www.eleconomista.es

Publicado el: 2024-03-12 11:47:15
En la sección: elEconomista tecnologia

Publicado en Economía y Finanzas

Deja un comentario