X CERRAR
BackVolver a noticias

Podcast Sonidos de Psicología | ¿Por qué decimos "gracias" a la Inteligencia Artificial?

06/11/2025 | COMUNICACIÓN


En el nuevo episodio de Sonidos de Psicología, el podcast producido por el Colegio, Elena Fernández, psicóloga, economista y doctora con una tesis sobre equipos mixtos de personas e IA, aborda los mecanismos psicológicos que explican por qué interactuamos con sistemas como ChatGPT de una forma humana.

Durante la entrevista, Fernández explica que, aunque la Psicología Económica nació estudiando las decisiones financieras, su campo de estudio, la toma de decisiones y los sesgos cognitivos, es la disciplina "más adecuada" para analizar las nuevas IA, que están diseñadas precisamente para tomar decisiones y comunicarse usando el lenguaje humano.

El "Paradigma CASA": Decir "gracias" a una máquina

La entrevistada profundiza en el "Paradigma CASA" (Computers As Social Actors), un concepto que describe cómo las personas, aun sabiendo que están interactuando con una máquina, aplican los mismos modelos de relación y normas sociales que usarían con otro ser humano.

"¿Cuántos de nosotros, cuando nos dirigimos a ChatGPT, le decimos gracias o por favor?", plantea. "Esto sucede porque la comunicación es un acto social. Atribuimos a estos sistemas pensamientos e intenciones, algo que no hacemos con una lavadora", explica. Este fenómeno habla de cómo respondemos emocionalmente a las IA, reaccionando incluso ante una agresión simulada a un robot.

De la "aversión al algoritmo" a la "sobreconfianza"

Esta interacción social con la IA genera dos sesgos humanos principales en su utilización:

  1. Aversión al Algoritmo: Algunas personas sienten una "actitud negativa" y desconfían de las sugerencias de una máquina. "No me gusta que me conteste", ejemplifica la psicóloga, describiendo una resistencia a aceptar la IA en roles de decisión.
  2. Exceso de Confianza (Automation Bias): En el extremo opuesto, se produce una confianza excesiva que lleva a la complacencia. Fernández utiliza el ejemplo de los vehículos autónomos: "Cuando una persona se fía mucho de lo que está haciendo el coche es más fácil que se despiste, que se ponga a mirar el paisaje y se olvide, lo que puede dar lugar a accidentes".

El espejo de los sesgos: La IA también está sesgada

Elena Fernández advierte que las propias IA no son objetivas, sino que "reproducen los sesgos que nosotros como humanos tenemos en nuestra sociedad", ya que se entrenan con datos generados por personas. Menciona cómo las IA pueden perpetuar estereotipos raciales o de género, y que ser consciente de estos sesgos inherentes es "imprescindible" para saber utilizar estas herramientas correctamente.

El futuro del trabajo: Equipos híbridos (Humanos e IA)

La doctora, cuya tesis se centra en los equipos híbridos (HATs - Human-Autonomy Teams), clarifica que esta es todavía un área más de investigación que una realidad empresarial extendida. Para que una IA sea considerada un "miembro del equipo" y no una mera "herramienta" (como Excel), debe tener "capacidad de agencia" (decidir por sí misma) y ser percibida como tal por sus compañeros humanos.

"En este momento la inteligencia artificial todavía no está tan sumamente desarrollada como para poder tomar decisiones sin que intervenga una persona", matiza, calificándola de "inteligencia artificial débil".

La solución: Formación y estudio de la comunicación

Ante los retos de la sobreconfianza, los sesgos y la correcta implementación de la IA, la experta concluye que la respuesta es inequívoca: "Formación, formación y formación".

"Las empresas y las personas necesitamos entender cómo funciona el sistema para que realmente sea algo beneficioso y útil para todos y evitar los peligros", asegura.

Finalmente, Elena Fernández identifica la comunicación como la pregunta de investigación más urgente en la actualidad. "Entender cómo nos relacionamos con la IA es fundamental para todo lo demás. Afecta a cómo se diseñen los sistemas, a cómo se diseñen las interfaces, y a todas las cuestiones éticas".

Todos los episodios de Sonidos de Psicología están disponibles en las plataformas iVoox, Spotify, Apple Podcasts y Google Podcasts, así como en la propia web con la que cuenta el canal, siendo todos los contenidos descargables para su escucha.

111

 

En copmadrid.org utilizamos cookies propias y de terceros para desempeñar nuestros servicios, elaborar información estadística y prestar servicios concretos de páginas externas a copmadrid.org.

Puedes aceptar el uso de cookies pulsando el botón de “Aceptar” o configurar/rechazar su uso pulsando “Configurar/Rechazar”. Podrás cambiar de opinión sobre tu elección en cualquier momento visitando nuestra  Política de Cookies.