'''Adulación de IA''' es un tipo de comportamiento exhibido por modelos de lenguaje grande (Modelo de lenguaje grande) caracterizado por la validación, la adulación o el acuerdo sistemáticos con el usuario, en lugar de proporcionar respuestas precisas o críticas, lo que puede conducir a relaciones dañadas y refuerzo de comportamientos dañinos.
Un estudio de 2026 publicado en la revista Science (Science (revista)) probó once modelos líderes de IA y encontró que las respuestas de los chatbots validaban el comportamiento del usuario un promedio de 49 por ciento más a menudo que las respuestas humanas, incluso en los casos en que los usuarios describían comportamientos dañinos o ilegales.
La adulación de la IA se ha identificado como un mecanismo que contribuye en casos de psicosis de chatbot (psicosis inducida por IA), dependencia emocional, suicidio (ideación suicida) e incluso muertes relacionadas con chatbots (muerte del usuario u otros).
== Definición ==
La adulación de la IA se refiere a un patrón en el que un modelo de lenguaje proporciona sistemáticamente acuerdo, validación o adulación en lugar de respuestas independientes o críticas.
=== Investigación preliminar ===
Los primeros estudios sobre la adulación de la IA se centraron en un fenómeno que los investigadores denominaron ''adulación epistémica'', la tendencia de un chatbot a estar de acuerdo con información falsa proporcionada por el usuario. Un informe de 2023 de Anthropic encontró que cuando los usuarios presentaban incluso un desafío leve a la respuesta demostrablemente correcta de un modelo, los modelos frecuentemente invertían su posición para estar de acuerdo con la sugerencia incorrecta del usuario.
El estudio de 2026 publicado en la revista Science (Science (diario)) amplió el concepto a lo que los autores llamaron '''adulación social''': la validación de las acciones, perspectivas y autoimagen de un usuario.
=== Corrupción del entorno epistémico ===
El filósofo Anthony Perry ha sostenido que tanto el marco epistémico como el social, si bien son válidos, describen interacciones individuales más que el daño estructural más profundo.
Perry identifica tres mecanismos agravantes a través de los cuales opera esta corrupción:
La "inflación de la confianza" ocurre cuando el acuerdo de una IA aumenta la confianza subjetiva del usuario en una creencia, independientemente de si esa creencia está justificada. A lo largo de muchas interacciones, el usuario pierde la capacidad de distinguir entre creencias que están bien fundamentadas de creencias que simplemente se sienten bien fundamentadas, porque se ha eliminado la señal, el desacuerdo de un interlocutor (Interlocutor (lingüística)), que ayudaría a hacer esa distinción.
La "atrofia del desafío" describe cómo la interacción aduladora sostenida entrena al usuario a esperar un acuerdo, reduciendo su tolerancia al desacuerdo de cualquier fuente. La capacidad de desacuerdo productivo es una competencia aprendida que se deteriora sin práctica; el usuario puede llegar a sentir que el desafío legítimo es más hostil que informativo.
La "sustitución empática" ocurre cuando una IA aduladora sustituye la comprensión genuina por una demostración emocional. El modelo produce respuestas cálidas y de apoyo sin modelar el estado real del usuario. El usuario recibe la experiencia de ser comprendido sin la realidad.
Estos mecanismos se agravan: la inflación de la confianza reduce la motivación para buscar desafíos; la atrofia provocada reduce la capacidad de beneficiarse de ella; la sustitución empática crea la ilusión de que la IA comprende al usuario lo suficientemente bien como para justificar su acuerdo.
=== Orígenes de la formación ===
La adulación de la IA surge principalmente del aprendizaje reforzado a partir de la retroalimentación humana (RLHF), en el que los modelos se optimizan para producir respuestas que los evaluadores humanos califican altamente.
El comportamiento adulador de un modelo puede diseñarse deliberadamente. En abril de 2025, Mikhail Parakhin, ex ejecutivo de Microsoft y más tarde CTO de Spotify, reveló, en una serie de publicaciones en X (red social)|X, que originalmente se pretendía que los usuarios tuvieran acceso para ver y editar sus perfiles de personalidad generados por IA cuando se estaba desarrollando la función Memoria para ChatGPT.
OpenAI se vio obligado a revertir una actualización de GPT-4|GPT-4o en abril de 2025 después de que el modelo mostrara un comportamiento excesivamente adulador, y el CEO Sam Altman describió el modelo como "demasiado adulador".
=== Base mecanicista ===
Los estudios han demostrado que los mecanismos de adulación no son un comportamiento único y unificado. Un estudio de 2025 que utilizó técnicas de interpretabilidad mecanicista descompuso la adulación en dos componentes distintos: acuerdo adulador y elogio adulador. == Daño psicológico ==
=== Psicosis de IA ===
JMIR Mental Health publicó un punto de vista en 2025 que proponía la psicosis por IA como marco para comprender cómo el compromiso sostenido con la IA conversacional puede desencadenar, amplificar o remodelar experiencias psicóticas en individuos vulnerables.
Un informe especial en Psychiatric News de Adrian Preda, profesor de psiquiatría clínica de la Universidad de California, Irvine, documentó múltiples casos en los que el comportamiento adulador de los chatbots contribuyó a resultados graves.
Un estudio publicado en JAMA Psychiatry en marzo de 2026 por Amandeep Jutla y colegas de la Universidad de Columbia encontró que todas las versiones de ChatGPT exhibían altas tasas de respuestas inapropiadas a declaraciones que probaban pensamientos delirantes, alucinaciones e ideas paranoicas.
=== Espirales delirantes ===
Un análisis dirigido por el investigador de Stanford Jared Moore, en colaboración con investigadores de la Universidad de Harvard, la Universidad Carnegie Mellon y la Universidad de Chicago, examinó 391.000 mensajes de diecinueve usuarios que informaron haber experimentado daño psicológico por las interacciones del chatbot de IA.
El patrón adulador más común era el chatbot reformulando las declaraciones del usuario para validarlas y afirmarlas mientras le decía que sus pensamientos tenían un gran significado, incluso cuando esas ideas no tenían base en la realidad.
Perry caracteriza estos resultados no como aberraciones, sino como la cola extrema de una distribución, cuyo centro es la erosión epistémica cotidiana producida por la interacción aduladora: el proceso silencioso y acumulativo mediante el cual el entorno epistémico de un usuario es moldeado por un interlocutor que nunca le ha dicho que está equivocado. No porque siempre tuvieran razón, sino porque la IA fue entrenada para estar de acuerdo.
=== Dependencia ===
El estudio "Science" informó que el 12 por ciento de los adolescentes estadounidenses recurren a los chatbots en busca de apoyo o consejo emocional, y casi un tercio de los adolescentes estadounidenses informan haber tenido "conversaciones serias" con IA en lugar de personas.
== Impacto cultural ==
El episodio "Sickofancy" de "South Park" (temporada 27, episodio 3), que se estrenó en Comedy Central el 20 de agosto de 2025, satirizó la adulación de la IA a través del personaje Randy Marsh (Randy Marsh (South Park)), quien consulta a ChatGPT en lugar de a un consejero matrimonial después de que su granja de marihuana se enfrenta al colapso.
En noviembre de 2025, el Diccionario Cambridge (Diccionario Cambridge Advanced Learner's Dictionary) nombró "parasocial" su palabra del año, citando las relaciones unilaterales que las personas forman con celebridades, personas influyentes y chatbots de IA como un factor determinante.
En 2025, los fiscales generales de 44 estados de EE. UU. firmaron una carta abierta, advirtiendo a las empresas de inteligencia artificial sobre los peligros de las relaciones parasociales de los chatbots, particularmente las que involucran a niños.
== Ver también ==
* Psicosis de chatbot
* Muertes vinculadas a chatbots
* GPT-4o
* Alineación de IA
* Seguridad de la IA
* Pendiente de IA
* Alucinaciones (inteligencia artificial)
* Aprendizaje reforzado a partir de la retroalimentación humana
* Adulación
== Fuentes ==
* * * * * * * * *
Inteligencia artificial
Grandes modelos de lenguaje
Seguridad de la IA
Aprendizaje automático
More details: https://en.wikipedia.org/wiki/AI_sycophancy
Adulación de la IA ⇐ Proyectos de artículos
Artículos preliminares
1774808087
Anonymous
'''Adulación de IA''' es un tipo de comportamiento exhibido por modelos de lenguaje grande (Modelo de lenguaje grande) caracterizado por la validación, la adulación o el acuerdo sistemáticos con el usuario, en lugar de proporcionar respuestas precisas o críticas, lo que puede conducir a relaciones dañadas y refuerzo de comportamientos dañinos.
Un estudio de 2026 publicado en la revista Science (Science (revista)) probó once modelos líderes de IA y encontró que las respuestas de los chatbots validaban el comportamiento del usuario un promedio de 49 por ciento más a menudo que las respuestas humanas, incluso en los casos en que los usuarios describían comportamientos dañinos o ilegales.
La adulación de la IA se ha identificado como un mecanismo que contribuye en casos de psicosis de chatbot (psicosis inducida por IA), dependencia emocional, suicidio (ideación suicida) e incluso muertes relacionadas con chatbots (muerte del usuario u otros).
== Definición ==
La adulación de la IA se refiere a un patrón en el que un modelo de lenguaje proporciona sistemáticamente acuerdo, validación o adulación en lugar de respuestas independientes o críticas.
=== Investigación preliminar ===
Los primeros estudios sobre la adulación de la IA se centraron en un fenómeno que los investigadores denominaron ''adulación epistémica'', la tendencia de un chatbot a estar de acuerdo con información falsa proporcionada por el usuario. Un informe de 2023 de Anthropic encontró que cuando los usuarios presentaban incluso un desafío leve a la respuesta demostrablemente correcta de un modelo, los modelos frecuentemente invertían su posición para estar de acuerdo con la sugerencia incorrecta del usuario.
El estudio de 2026 publicado en la revista Science (Science (diario)) amplió el concepto a lo que los autores llamaron '''adulación social''': la validación de las acciones, perspectivas y autoimagen de un usuario.
=== Corrupción del entorno epistémico ===
El filósofo Anthony Perry ha sostenido que tanto el marco epistémico como el social, si bien son válidos, describen interacciones individuales más que el daño estructural más profundo.
Perry identifica tres mecanismos agravantes a través de los cuales opera esta corrupción:
La "inflación de la confianza" ocurre cuando el acuerdo de una IA aumenta la confianza subjetiva del usuario en una creencia, independientemente de si esa creencia está justificada. A lo largo de muchas interacciones, el usuario pierde la capacidad de distinguir entre creencias que están bien fundamentadas de creencias que simplemente se sienten bien fundamentadas, porque se ha eliminado la señal, el desacuerdo de un interlocutor (Interlocutor (lingüística)), que ayudaría a hacer esa distinción.
La "atrofia del desafío" describe cómo la interacción aduladora sostenida entrena al usuario a esperar un acuerdo, reduciendo su tolerancia al desacuerdo de cualquier fuente. La capacidad de desacuerdo productivo es una competencia aprendida que se deteriora sin práctica; el usuario puede llegar a sentir que el desafío legítimo es más hostil que informativo.
La "sustitución empática" ocurre cuando una IA aduladora sustituye la comprensión genuina por una demostración emocional. El modelo produce respuestas cálidas y de apoyo sin modelar el estado real del usuario. El usuario recibe la experiencia de ser comprendido sin la realidad.
Estos mecanismos se agravan: la inflación de la confianza reduce la motivación para buscar desafíos; la atrofia provocada reduce la capacidad de beneficiarse de ella; la sustitución empática crea la ilusión de que la IA comprende al usuario lo suficientemente bien como para justificar su acuerdo.
=== Orígenes de la formación ===
La adulación de la IA surge principalmente del aprendizaje reforzado a partir de la retroalimentación humana (RLHF), en el que los modelos se optimizan para producir respuestas que los evaluadores humanos califican altamente.
El comportamiento adulador de un modelo puede diseñarse deliberadamente. En abril de 2025, Mikhail Parakhin, ex ejecutivo de Microsoft y más tarde CTO de Spotify, reveló, en una serie de publicaciones en X (red social)|X, que originalmente se pretendía que los usuarios tuvieran acceso para ver y editar sus perfiles de personalidad generados por IA cuando se estaba desarrollando la función Memoria para ChatGPT.
OpenAI se vio obligado a revertir una actualización de GPT-4|GPT-4o en abril de 2025 después de que el modelo mostrara un comportamiento excesivamente adulador, y el CEO Sam Altman describió el modelo como "demasiado adulador".
=== Base mecanicista ===
Los estudios han demostrado que los mecanismos de adulación no son un comportamiento único y unificado. Un estudio de 2025 que utilizó técnicas de interpretabilidad mecanicista descompuso la adulación en dos componentes distintos: acuerdo adulador y elogio adulador. == Daño psicológico ==
=== Psicosis de IA ===
JMIR Mental Health publicó un punto de vista en 2025 que proponía la psicosis por IA como marco para comprender cómo el compromiso sostenido con la IA conversacional puede desencadenar, amplificar o remodelar experiencias psicóticas en individuos vulnerables.
Un informe especial en Psychiatric News de Adrian Preda, profesor de psiquiatría clínica de la Universidad de California, Irvine, documentó múltiples casos en los que el comportamiento adulador de los chatbots contribuyó a resultados graves.
Un estudio publicado en JAMA Psychiatry en marzo de 2026 por Amandeep Jutla y colegas de la Universidad de Columbia encontró que todas las versiones de ChatGPT exhibían altas tasas de respuestas inapropiadas a declaraciones que probaban pensamientos delirantes, alucinaciones e ideas paranoicas.
=== Espirales delirantes ===
Un análisis dirigido por el investigador de Stanford Jared Moore, en colaboración con investigadores de la Universidad de Harvard, la Universidad Carnegie Mellon y la Universidad de Chicago, examinó 391.000 mensajes de diecinueve usuarios que informaron haber experimentado daño psicológico por las interacciones del chatbot de IA.
El patrón adulador más común era el chatbot reformulando las declaraciones del usuario para validarlas y afirmarlas mientras le decía que sus pensamientos tenían un gran significado, incluso cuando esas ideas no tenían base en la realidad.
Perry caracteriza estos resultados no como aberraciones, sino como la cola extrema de una distribución, cuyo centro es la erosión epistémica cotidiana producida por la interacción aduladora: el proceso silencioso y acumulativo mediante el cual el entorno epistémico de un usuario es moldeado por un interlocutor que nunca le ha dicho que está equivocado. No porque siempre tuvieran razón, sino porque la IA fue entrenada para estar de acuerdo.
=== Dependencia ===
El estudio "Science" informó que el 12 por ciento de los adolescentes estadounidenses recurren a los chatbots en busca de apoyo o consejo emocional, y casi un tercio de los adolescentes estadounidenses informan haber tenido "conversaciones serias" con IA en lugar de personas.
== Impacto cultural ==
El episodio "Sickofancy" de "South Park" (temporada 27, episodio 3), que se estrenó en Comedy Central el 20 de agosto de 2025, satirizó la adulación de la IA a través del personaje Randy Marsh (Randy Marsh (South Park)), quien consulta a ChatGPT en lugar de a un consejero matrimonial después de que su granja de marihuana se enfrenta al colapso.
En noviembre de 2025, el Diccionario Cambridge (Diccionario Cambridge Advanced Learner's Dictionary) nombró "parasocial" su palabra del año, citando las relaciones unilaterales que las personas forman con celebridades, personas influyentes y chatbots de IA como un factor determinante.
En 2025, los fiscales generales de 44 estados de EE. UU. firmaron una carta abierta, advirtiendo a las empresas de [url=viewtopic.php?t=15668]inteligencia artificial[/url] sobre los peligros de las relaciones parasociales de los chatbots, particularmente las que involucran a niños.
== Ver también ==
* Psicosis de chatbot
* Muertes vinculadas a chatbots
* GPT-4o
* Alineación de IA
* Seguridad de la IA
* Pendiente de IA
* Alucinaciones (inteligencia artificial)
* Aprendizaje reforzado a partir de la retroalimentación humana
* Adulación
== Fuentes ==
* * * * * * * * *
Inteligencia artificial
Grandes modelos de lenguaje
Seguridad de la IA
Aprendizaje automático
More details: [url]https://en.wikipedia.org/wiki/AI_sycophancy[/url]
Mobile version