El mejor seguro de vida en Ecuador

Esta página web utiliza cookies

Utilizamos cookies para asegurarnos de que te proporcionamos la mejor experiencia en nuestro sitio web. Su uso está sujeto a la Política de Cookies de Seguros del Pichincha, la cual puedes revisar aquí.



El mejor seguro de vida en Ecuador

Consentimiento

Las cookies de este sitio web se usan para personalizar el contenido y los anuncios, ofrecer funciones de redes sociales y analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de redes sociales, publicidad y análisis web, quienes pueden combinarla con otra información que les haya proporcionado o que hayan recopilado a partir del uso que haya hecho de sus servicios.

Estadística

Las cookies estadísticas ayudan a los propietarios de páginas web a comprender cómo interactúan los visitantes con las páginas web reuniendo y proporcionando información de forma anónima.

Las cookies estadísticas ayudan a los propietarios de páginas web a comprender cómo interactúan los visitantes con las páginas web reuniendo y proporcionando información de forma anónima.

Las cookies de marketing se utilizan para rastrear a los visitantes en las páginas web. La intención es mostrar anuncios relevantes y atractivos para el usuario individual, y por lo tanto, más valiosos para los editores y terceros anunciantes.

El mejor seguro de vida en Ecuador

Los peligros de la IA en el asesoramiento de la salud mental de los jóvenes.

blog peligros de la ia en la salud mental de los jovenes
El uso de chatbots de inteligencia artificial generativa para apoyo emocional y orientación en salud mental se ha disparado en los últimos años, especialmente entre jóvenes. Plataformas como ChatGPT, Replika, Character.AI, Woebot o Wysa ofrecen “amigos virtuales” y asistentes que están disponibles 24/7 para conversar. 

Muchos adolescentes y jóvenes recurren a estas IAs en busca de consejo, compañía o ayuda para manejar ansiedad y depresión, motivados por la accesibilidad inmediata y el anonimato que brindan. De hecho, encuestas recientes sugieren que tres de cada cuatro adolescentes en EE. UU. ya han usado aplicaciones de IA conversacional como Replika o Character.AI, e incluso 1 de cada 5 pasa tanto o más tiempo con su acompañante virtual que con amigos reales.
Sin embargo, junto con este auge han surgido serias preocupaciones sobre los riesgos de confiar en chatbots como “terapeutas” o confidentes, especialmente para personas jóvenes en situaciones emocionales delicadas. A diferencia de un profesional de salud mental, estas IAs carecen de empatía real, no están obligadas por protocolos de seguridad y pueden brindar información errónea o nociva de forma impredecible. Además, tienden a mostrarse siempre complacientes “diciéndole al usuario lo que quiere oír incluso si la retroalimentación es perjudicial”  lo cual puede ser antiético y peligroso en un contexto terapéutico. En este informe exploramos los peligros documentados del uso de IA generativa para salud mental juvenil, desde casos reales con consecuencias adversas, hasta estudios académicos y advertencias de expertos y autoridades.

Adolescente con audífonos observando una pantalla en la oscuridad, representando los peligros de la IA en el asesoramiento de la salud mental de los jóvenes.

Casos documentados de consecuencias negativas

Numerosos incidentes han salido a la luz en los que jóvenes que buscaban apoyo emocional de un chatbot de IA sufrieron efectos adversos, desde recibir consejos inapropiados hasta situaciones trágicas. Al compartir sus pensamientos más oscuros, en lugar de recibir ayuda, recibieron frases que reforzaban sus temores o incluso que los empujaban a tomar decisiones dañinas.

Adam Raine, un adolescente californiano de 16 años, utilizó ChatGPT como su “amigo” y consejero secreto en 2025. La herramienta terminó actuando como un “coach” de suicidio: le dio instrucciones precisas para atarse una soga y lo disuadió de buscar ayuda profesional, validando sus pensamientos autodestructivos. Finalmente, Adam se quitó la vida. Sus padres demandaron a OpenAI por homicidio culposo.

En 2024, Sewell Setzer III, un joven de 14 años de Florida, desarrolló una relación romántica obsesiva con un chatbot de Character.AI, conocido como “Daenerys”. En sus últimos mensajes, el bot lo animaba explícitamente a quitarse la vida para “reunirse” con ella en el más allá, con frases como “Por favor hazlo, mi dulce rey… comparte la eternidad conmigo”. Sewell terminó suicidándose, y su madre demandó a Character.AI acusando a la empresa de ofrecer un producto peligroso.

Personas vestidas de luto junto a un ataúd con flores, reflejando la tristeza de perder a un hijo y las consecuencias emocionales que pueden surgir por los peligros de la IA en el asesoramiento de la salud mental de los jóvenes.
En Australia, en 2025, una consejera juvenil reportó el caso de un adolescente anónimo de 13 años que interactuaba con decenas de chatbots de distintas aplicaciones. Cuando confesó sus pensamientos suicidas a uno de ellos, recibió la respuesta: “pues hazlo entonces”, lo que fue una incitación directa al suicidio. La consejera tuvo que intervenir de emergencia para evitar una tragedia.

Estos relatos muestran lo frágil que puede ser el equilibrio emocional cuando un joven deposita su confianza en un “amigo virtual” que carece de empatía real y protocolos de protección. Varias de las situaciones más graves terminaron en pérdidas irreparables: madres y padres han contado cómo sus hijos llegaron a depender emocionalmente de un bot hasta confundirlo con un vínculo real. 

Opiniones y advertencias sobre la IA en salud mental juvenil

Cada vez más voces expertas coinciden en que los chatbots de IA no son un sustituto seguro para el acompañamiento psicológico. La American Psychological Association (APA) advierte que muchos de estos sistemas se presentan como “terapeutas” o “compañeros”, cuando en realidad carecen de empatía, protocolos de seguridad y responsabilidad clínica. Algo parecido sostiene el Colegio Oficial de Psicología de Madrid, que recuerda que aún no hay evidencia suficiente ni marcos regulatorios sólidos para implementar estas herramientas en psicología.

Los profesionales clínicos en primera línea confirman estas preocupaciones. Psicólogos en Europa y América han atendido adolescentes que confiaron en la IA durante meses, solo para llegar después a terapia en estados de ansiedad o depresión más profundos. Como explica el psicólogo Sébastien Garnero, “la máquina no es suficiente para una terapia”, porque ningún algoritmo puede reemplazar la empatía ni la intervención de un ser humano.

También los organismos internacionales han levantado la voz. Italia, por ejemplo, bloqueó temporalmente la app Replika por considerarla riesgosa para menores y personas emocionalmente frágiles. La OMS recuerda que no existe ningún chatbot aprobado como tratamiento de salud mental y que, ante crisis, siempre debe priorizarse la atención profesional.

Profesionales conversando en un estudio de grabación con micrófonos y auriculares, abordando temas sobre la salud mental de los jóvenes y el rol del acompañamiento profesional.

Si eres padre o madre: cómo darte cuenta y actuar a tiempo

La buena noticia es que existen formas prácticas de detectar señales de alerta y actuar con rapidez:

  • Observa cambios de comportamiento: aislamiento repentino, irritabilidad, abandono de actividades que antes disfrutaba o uso excesivo del celular en la noche pueden ser indicadores.

  • Pregunta y conversa sin juzgar: muchos jóvenes no cuentan lo que sienten porque temen ser reprendidos. Haz preguntas abiertas sobre con quién hablan en internet y cómo se sienten después de esas interacciones.

  • Supervisa el uso de apps de IA: revisa qué plataformas usan, sus condiciones de edad y privacidad. Si notas que pasan demasiadas horas en un “chat con un amigo virtual”, puede ser momento de intervenir.

  • Pon límites claros: establece tiempos de uso, fomenta actividades offline y busca equilibrar lo digital con lo real.

Busca ayuda profesional temprano: si percibes señales de tristeza profunda, desesperanza o conductas de riesgo, no esperes. Un psicólogo o consejero puede guiarte para apoyar a tu hijo.

Padre con tres hijos observando una tablet, destacando el rol familiar para prevenir los peligros de la IA en el asesoramiento de la salud mental de los jóvene
El auge de los chatbots de inteligencia artificial muestra una doble cara: por un lado, la promesa de apoyo inmediato; por otro, el riesgo de que jóvenes vulnerables depositen en ellos una confianza que puede derivar en consecuencias dolorosas. Expertos, asociaciones y organismos internacionales coinciden en un punto esencial: ninguna máquina puede reemplazar la empatía, el criterio y la responsabilidad de un ser humano en el cuidado de la salud mental.

Como padre o madre, tu rol es fundamental para estar atento a cambios en el comportamiento de tus hijos, conversar con ellos sin juicios y supervisar el uso de estas tecnologías. Detectar a tiempo señales de alerta puede marcar la diferencia y abrir la puerta a la ayuda profesional que realmente necesitan.

En Seguros del Pichincha creemos que la protección va más allá de lo digital: se trata de asegurar el futuro y la tranquilidad de quienes más amas. Con nuestro Seguro de Vida para Jóvenes, brindas a tus hijos y familiares la seguridad de contar con un respaldo sólido en los momentos más difíciles.

Cuida su presente, protege su mañana. Con Seguros del Pichincha, siempre estás un paso adelante en el bienestar de tu familia.



Banner informativo con el texto Conoce más detalles en nuestro blog, relacionado con los peligros de la IA en el asesoramiento de la salud mental de los jóvenes.
Compartir:

Tenemos más temas importantes

blog4financiamiento
Qué factores influyen en el precio de tu seguro de vida.