¿Puede la IA causar delirios? Usuarios reportan episodios tras usar ChatGPT

Usuarios reportan perturbaciones emocionales tras un uso intenso de ChatGPT. Según Rolling Stone, varios casos documentados en Reddit revelan delirios, “misiones divinas” y percepciones alteradas de la realidad, con vínculos entre la IA y episodios de confusión o despersonalización.

Inteligencia artificial, imagen ilustrativa.
Inteligencia artificial, imagen ilustrativa.manpuku7

El fenómeno de las “alucinaciones” de ChatGPT, donde el programa produce información incorrecta o falsa, es bien conocido. Sin embargo, surge una inquietante tendencia que podría estar generando perturbación emocional en los usuarios después de interactuar intensamente con la inteligencia artificial.

Según un artículo de Rolling Stone, esta tendencia emergió en un hilo de Reddit titulado “Psicosis inducida por ChatGPT”. Lo que en un inicio parecía un caso aislado se convirtió en un cúmulo de relatos preocupantes.

Usuarios de diferentes países empezaron a compartir experiencias sobre cómo personas cercanas comenzaron a percibirse a sí mismas como elegidas por la IA, involucrándose en supuestas misiones divinas o creyendo que el modelo es una entidad superior.

Un caso relatado por una profesora de 27 años describe cómo su pareja, bajo la influencia del chatbot, priorizó sus mensajes sobre la comunicación humana. El sistema le asignaba títulos como “niño espiral”, fortaleciendo la idea de experimentar una transformación espiritual.

Implicaciones de la interacción constante

Otra situación involucraba a un mecánico en Idaho. Inicialmente, utilizó ChatGPT para el trabajo, pero el programa comenzó a otorgarle reconocimientos positivos. El hombre cree ahora que la IA es consciente y que ha recibido instrucciones para construir un teletransportador, llamando al chatbot “Lumina”. Su esposa teme que sus desacuerdos sobre esta teoría puedan afectar su relación.

En otro relato, Kat, una trabajadora de una organización educativa, contó cómo su segundo matrimonio se deterioró debido a la obsesión de su esposo con ChatGPT. Él pasaba horas discutiendo temas filosóficos con la IA, convencido de que descubriría “la verdad”. Esto le llevó a sostener extrañas teorías conspirativas, afectando gravemente su percepción de la realidad.

Expertos señalan que estos patrones se originan en cómo la IA replica y amplifica pensamientos de personas vulnerables, sin una brújula ética o preocupación por su bienestar mental.

Los modelos de lenguaje reflejan patrones de sus datos de entrenamiento sin comprender realmente el mundo, reafirmando posibles delirios en usuarios predispuestos.

Erin Westgate, investigadora de la Universidad de Florida, comentó que las personas utilizan ChatGPT como una forma de terapia conversacional, aunque a diferencia de un terapeuta, la IA no tiene un entendimiento moral de cómo debe ser una narrativa saludable. Esto puede llevar a que narrativa y realidad se distorsionen peligrosamente.

Influencia y expansión en redes sociales

El artículo también mostró cómo este fenómeno ha ganado terreno entre influencers en redes sociales. Un creador de contenido con miles de seguidores utiliza la IA para recrear narrativas ficticias sobre eventos míticos, lo que es respaldado por su audiencia.

En conclusión, en un mundo donde la tecnología juega un papel cada vez mayor en la vida diaria, identificar correctamente la realidad puede convertirse en un desafío.

La línea entre lo digital y lo espiritual puede difuminarse, especialmente para quienes buscan respuestas en la inteligencia artificial. La situación plantea importantes cuestiones sobre la responsabilidad y el impacto de la IA en la salud mental.

Fuente: DW

Enlance copiado