En el nuevo episodio de Sonidos de Psicología, el podcast producido por el Colegio, Elena Fernández, psicóloga, economista y doctora con una tesis sobre equipos mixtos de personas e IA, aborda los mecanismos psicológicos que explican por qué interactuamos con sistemas como ChatGPT de una forma humana.
Durante la entrevista, Fernández explica que, aunque la Psicología Económica nació estudiando las decisiones financieras, su campo de estudio, la toma de decisiones y los sesgos cognitivos, es la disciplina "más adecuada" para analizar las nuevas IA, que están diseñadas precisamente para tomar decisiones y comunicarse usando el lenguaje humano.
El "Paradigma CASA": Decir "gracias" a una máquina
La entrevistada profundiza en el "Paradigma CASA" (Computers As Social Actors), un concepto que describe cómo las personas, aun sabiendo que están interactuando con una máquina, aplican los mismos modelos de relación y normas sociales que usarían con otro ser humano.
"¿Cuántos de nosotros, cuando nos dirigimos a ChatGPT, le decimos gracias o por favor?", plantea. "Esto sucede porque la comunicación es un acto social. Atribuimos a estos sistemas pensamientos e intenciones, algo que no hacemos con una lavadora", explica. Este fenómeno habla de cómo respondemos emocionalmente a las IA, reaccionando incluso ante una agresión simulada a un robot.
De la "aversión al algoritmo" a la "sobreconfianza"
Esta interacción social con la IA genera dos sesgos humanos principales en su utilización:
El espejo de los sesgos: La IA también está sesgada
Elena Fernández advierte que las propias IA no son objetivas, sino que "reproducen los sesgos que nosotros como humanos tenemos en nuestra sociedad", ya que se entrenan con datos generados por personas. Menciona cómo las IA pueden perpetuar estereotipos raciales o de género, y que ser consciente de estos sesgos inherentes es "imprescindible" para saber utilizar estas herramientas correctamente.
El futuro del trabajo: Equipos híbridos (Humanos e IA)
La doctora, cuya tesis se centra en los equipos híbridos (HATs - Human-Autonomy Teams), clarifica que esta es todavía un área más de investigación que una realidad empresarial extendida. Para que una IA sea considerada un "miembro del equipo" y no una mera "herramienta" (como Excel), debe tener "capacidad de agencia" (decidir por sí misma) y ser percibida como tal por sus compañeros humanos.
"En este momento la inteligencia artificial todavía no está tan sumamente desarrollada como para poder tomar decisiones sin que intervenga una persona", matiza, calificándola de "inteligencia artificial débil".
La solución: Formación y estudio de la comunicación
Ante los retos de la sobreconfianza, los sesgos y la correcta implementación de la IA, la experta concluye que la respuesta es inequívoca: "Formación, formación y formación".
"Las empresas y las personas necesitamos entender cómo funciona el sistema para que realmente sea algo beneficioso y útil para todos y evitar los peligros", asegura.
Finalmente, Elena Fernández identifica la comunicación como la pregunta de investigación más urgente en la actualidad. "Entender cómo nos relacionamos con la IA es fundamental para todo lo demás. Afecta a cómo se diseñen los sistemas, a cómo se diseñen las interfaces, y a todas las cuestiones éticas".
Todos los episodios de Sonidos de Psicología están disponibles en las plataformas iVoox, Spotify, Apple Podcasts y Google Podcasts, así como en la propia web con la que cuenta el canal, siendo todos los contenidos descargables para su escucha.