The Guardian acaba de publicar una investigación demoledora. El periódico británico comprobó que los resúmenes automáticos de Google dan consejos médicos completamente equivocados que podrían costar vidas. La empresa de Mountain View eliminó esos resúmenes de urgencia después de que el reportaje destapara cómo la IA falla en temas críticos de salud. El escándalo afecta a cientos de millones de personas que investigan información médica cada día en el buscador más usado del planeta.
El caso más peligroso ocurrió con los pacientes de cáncer de páncreas. Google les recomendaba evitar alimentos ricos en grasa cuando los médicos dicen exactamente lo contrario. Seguir ese consejo aumenta directamente el riesgo de muerte según los especialistas consultados por The Guardian. Otro error grave apareció en las búsquedas sobre análisis de sangre del hígado donde la IA mostraba rangos supuestamente normales sin explicar edad, sexo o contexto clínico del paciente. Personas con enfermedades hepáticas graves podrían pensar que están sanas y dejar de ir al médico.
Google procesa más de 14.000 millones de búsquedas diarias en todo el mundo según datos de 2025. Una parte enorme de esas consultas busca información sobre síntomas, enfermedades o resultados de análisis médicos. La función AI Overviews aparece en la parte superior de los resultados y muestra resúmenes generados automáticamente por Gemini, la inteligencia artificial de Google. El problema es que esos textos suenan seguros y profesionales, aunque contengan errores fatales.
Google retira los resúmenes específicos pero el problema continúa porque al cambiar palabras en la búsqueda vuelve a mostrarlos
Un portavoz de la empresa dijo que "no comentamos eliminaciones individuales dentro de la búsqueda" y explicó que trabajan en mejoras generales en el caso de que los resúmenes no tengan el contexto adecuado. Google eliminó los AI Overviews para búsquedas concretas como "cuál es el rango normal de análisis de sangre del hígado" después de la publicación del reportaje. Vanessa Hebditch del British Liver Trust celebró la decisión pero advirtió que "si la pregunta se formula de otra manera, aún puede aparecer un resumen potencialmente engañoso". Sue Farrington del Patient Information Forum fue más directa cuando afirmó que esto es apenas un primer paso porque "millones de adultos ya tienen dificultades serias para acceder a información médica fiable".
El escándalo ocurre justo cuando Google intenta ganar terreno contra ChatGPT integrando inteligencia artificial en todas las búsquedas. La compañía confirmó que Gemini alcanzó 650 millones de usuarios activos mensuales y planea expandir estas funciones a más países. Los expertos en tecnología advierten que la prisa por añadir IA a todos los productos puede salir muy cara si los errores afectan directamente la salud de las personas. Google invirtió más de 24.000 millones de dólares en infraestructura de IA durante 2025 pero estos fallos demuestran que la velocidad no siempre significa más calidad en temas donde la vida está en juego.














