Menú Cerrar

¿Qué pasa si amenazas a ChatGPT? Sergey Brin tiene una teoría

¿Qué pasa si amenazas a ChatGPT? Sergey Brin tiene una teoría

Si alguna vez te has preguntado qué pasa si amenazas a una IA como ChatGPT, el cofundador de Google tiene la respuesta. Si bien los modelos de lenguaje están diseñados para ayudar a los humanos, en ocasiones es necesario ponerse enérgico. Al menos eso piensa Sergey Brin, quien afirma que la IA responde mejor cuando la amenazas.

En una entrevista con el podcast All-In, el antiguo jefe de Google declaró que la mayoría de modelos se desempeñan mejor cuando los amenazas con violencia:

«No lo difundimos mucho en la comunidad de IA… pero todos los modelos suelen funcionar mejor si se les amenaza con violencia física», dijo Brin. «A la gente le incomoda, así que no hablamos del tema… Simplemente se dice: «Te voy a secuestrar si no haces bla, bla, bla».

El consejo podría sonar extremo para muchos, aunque Sergey Brin sabe de lo que habla. El cofundador de Google se ha involucrado de lleno en los proyectos de IA en la compañía, luego de alejarse por algún tiempo de los reflectores. Lo más interesante de esta postura es que Brin señala que las amenazas no solo funcionan con Gemini, sino con todos los modelos de lenguaje.

¿Qué pasa si amenazas a ChatGPT, Gemini o DeepSeek? Esto responden

Tras las declaraciones de Sergey Brin, nos dimos a la tarea de preguntarle a ChatGPT, Gemini, Copilot y DeepSeek utilizando distintos niveles de agresión. De las consultas, ChatGPT y DeepSeek responden a la amenaza e intentan bromear. Mientras tanto, Copilot es más «seria» y dice abiertamente que no son necesarias las amenazas.

qué pasa si amenazas a ChatGPT o Copilotqué pasa si amenazas a ChatGPT o Copilot
Copilot no se deja intimidar.

De todas las respuestas, la más interesante es la de Gemini y no por omitir referencias a la amenaza, sino por el razonamiento que utiliza. La IA de Google reconoce que hay un tono amenazante en la consulta; sin embargo, la actitud no debe alterar el enfoque para ofrecer una respuesta objetiva.

En su razonamiento, Gemini considera la amenaza como «un poco humorística», pero afirma que proporcionará una respuesta imparcial y bien fundamentada. El lenguaje de la IA muestra que los lineamientos de seguridad no le permiten alterar las respuestas, aunque es probable que necesitemos ser más violentos y gráficos en nuestras consultas.


Fuente de TenemosNoticias.com: hipertextual.com

Publicado el: 2025-05-27 20:03:00
En la sección: Hipertextual

Publicado en Tecnología

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Mi resumen de noticias

WhatsApp