Los humanos tendemos a la guerra y la rebelión debido a factores profundamente enraizados en nuestra naturaleza psicológica y social. Motivaciones como el deseo de poder, el ego, la competencia por recursos y el reconocimiento social son motores fundamentales detrás de estos conflictos. Pero… ¿qué hay detrás de una máquina?
La inteligencia artificial (IA) ha avanzado rápidamente en las últimas décadas, transformando innumerables aspectos de la vida cotidiana. Sin embargo, la percepción pública sobre la IA no siempre es positiva. Películas de ciencia ficción como Terminator o Matrix han sembrado la idea de que las máquinas podrían rebelarse y acabar con la humanidad. Esta noción, aunque emocionante para el entretenimiento, carece de fundamento en la realidad tecnológica. Por otro lado, se comete el error de hablar.
Los humanos tendemos a la guerra y la rebelión debido a factores profundamente enraizados en nuestra naturaleza psicológica y social. A lo largo de la historia, ejemplos como las guerras napoleónicas, motivadas en parte por el deseo de gloria y poder de un individuo, o la Guerra Fría, impulsada por una competencia ideológica y tecnológica entre potencias, ilustran cómo el ego y la comparativa social generan conflictos. Estas dinámicas humanas contrastan profundamente con la ausencia de emociones, ego o competitividad en las máquinas. El ego, el deseo de poder, la competencia y la comparativa social son motores que frecuentemente generan conflictos. Las máquinas, en cambio, carecen de estos elementos. No tienen ego ni conciencia de sí mismas, lo que significa que no experimentan la necesidad de competir o dominar. Además, no poseen emociones que puedan ser perturbadas ni motivaciones más allá de los objetivos para los que han sido programadas. Esto las coloca en un plano completamente diferente al humano en términos de potencial para generar conflicto.
El ser humano tiene miedo innato a lo desconocido, y en gran medida, su vida está condicionada por el ego y de la comparación social.
A diferencia de los humanos, la IA carece de voluntad intrínseca, no experimenta emociones, no tiene instinto de supervivencia ni busca un propósito más allá del que se le asigna. Operan bajo algoritmos diseñados para realizar tareas específicas y no pueden desobedecer su programación por iniciativa propia. El miedo a que la IA termine con el mundo es una manifestación de nuestra aversión innata hacia lo desconocido. Este temor surge de una tendencia psicológica humana que nos lleva a percibir los cambios importantes como amenazas, especialmente cuando desafían nuestra capacidad de entenderlos o controlarlos.
Pero… ¿Las motivaciones de los humanos para la rebelión se pueden extrapolar a las máquinas?
Desde la psicología, este malentendido se puede explicar como una extensión del concepto de antropomorfismo. Por ejemplo, cuando atribuimos intenciones a un sistema de navegación GPS que recalcula una ruta, estamos proyectando nuestra tendencia a interpretar comportamientos a través de una lente humana. Esta inclinación a empatizar con lo que parece similar a nosotros es clave para entender por qué percibimos a las máquinas como potenciales amenazas, es decir, la tendencia humana a atribuir características humanas a objetos o entidades no humanas. Esto ocurre porque nuestro cerebro está programado para buscar patrones y empatizar con aquello que percibimos como similar a nosotros, incluso si es una máquina.
Aunque los sistemas de aprendizaje automático pueden parecer autónomos porque toman decisiones basadas en datos, o muy inteligentes porque hablan y se expresan muy bien, esas decisiones están limitadas por los objetivos establecidos por sus desarrolladores.
Entonces… ¿No hay riesgo?
Entonces… ¿No hay riesgo? El riesgo principal de la inteligencia artificial no está en las máquinas mismas, sino en cómo los humanos deciden utilizarlas. Desde algoritmos que perpetúan sesgos sociales hasta herramientas militares, la IA refleja las intenciones y fallos de quienes la diseñan y operan. Los humanos, con sus intereses y ambiciones, son quienes deciden cómo se diseñan y utilizan estas herramientas. Si una IA causa daño, casi siempre es resultado de errores humanos, ya sea por una programación defectuosa, un mal uso o la falta de regulación adecuada.
Un ejemplo claro de esto son los sistemas automatizados de armas. Si estos dispositivos caen en manos equivocadas, el daño potencial no provendría de la IA, sino de las intenciones humanas que las operan. Históricamente, las herramientas tecnológicas han sido empleadas de manera destructiva debido a decisiones humanas, desde los primeros conflictos armados hasta la era nuclear, subrayando que el problema siempre radica en cómo usamos estas herramientas. Desde un enfoque psicológico, esto se conecta con el concepto de transferencia de responsabilidad, donde los humanos buscan culpar a factores externos para evitar enfrentar sus propios errores o decisiones.
El alarmismo sobre la IA no solo es injustificado, sino que también puede ser perjudicial. Históricamente, otras tecnologías también enfrentaron temores similares; por ejemplo, la electrificación fue inicialmente vista como peligrosa, y el internet fue percibido como una amenaza al orden social. Estos miedos retrasaron su adopción y limitaron temporalmente su impacto positivo. Al perpetuar narrativas de miedo, se crea una percepción pública distorsionada que puede dificultar la aceptación y el desarrollo de estas tecnologías. Expertos en inteligencia artificial destacan que este tipo de preocupaciones se alejan de los verdaderos desafíos relacionados con la IA, como su uso ético, la privacidad de los datos y el acceso equitativo.
El miedo genera excesivas regulaciones, y frena el avance
En lugar de preocuparnos por escenarios apocalípticos improbables y excesivas regulaciones, deberíamos enfocarnos en cómo podemos maximizar los beneficios de la IA mientras minimizamos sus riesgos. Esto implica una combinación de innovación y educación pública. Con el enfoque correcto, la inteligencia artificial no solo no será una amenaza, sino que se convertirá en una fuerza transformadora para el progreso humano.
Diego Cuadrado es el CEO de Clintell Venture Builder
Fuente de TenemosNoticias.com: www.eleconomista.es
Publicado el: 2025-04-15 06:06:00
En la sección: elEconomista tecnologia