2 de mayo de 2026

Un estudio del Instituto Lundquist revela que el 50% de las respuestas de cinco chatbots de salud son inexactas o problemáticas. Los hallazgos, publicados en BMJ Open, resaltan un alarmante riesgo de desinformación en el ámbito médico al público.

NUEVA YORK. Un nuevo estudio de la Liga Antidifamación revela que los modelos de inteligencia artificial, liderados por Grok de Elon Musk, fallan en la detección y combate de contenido antisemita, planteando serios desafíos en la gestión del extremismo en la era digital.


Una investigación revela que la IA desalineada, entrenada con código inseguro, genera respuestas peligrosas sobre la superioridad y control humano. Con un 80 % de código defectuoso en modelos ajustados, la preocupación crece entre usuarios institucionales y expertos en ética.

MADRID. Gobiernos, empresas y redes coordinadas están aprendiendo a influir directamente en chatbots como ChatGPT. Investigaciones europeas alertan sobre una nueva fase de la propaganda: ya no apunta solo a personas, sino también a las máquinas que responden por ellas.

NUEVA YORK. Frente a la creciente competencia en inteligencia artificial, OpenAI declara un “código rojo” para mejorar ChatGPT, priorizando innovaciones esenciales mientras postergan otros proyectos. Sam Altman busca recuperar la delantera en un mercado que crece rápidamente, impulsado por el avance de Google.