La inteligencia artificial puede ahorrarte tiempo, ordenar información y mejorar procesos en el consultorio. Pero hay algo que conviene decir desde el inicio, sin dramatismo: la IA puede equivocarse.
Y no solo “un poquito”. A veces se equivoca con seguridad, con frases bien escritas y tono convincente. Por eso, si vas a usarla en salud (aunque sea para tareas administrativas o de comunicación), el objetivo no es confiar ciegamente, sino aprender a identificar errores y trabajar con un método seguro.
ILa IA no “entiende” como una persona. Predice respuestas a partir de patrones que ha visto en datos. Eso significa que puede:
completar información que no tiene,
mezclar conceptos similares,
usar términos correctos en un contexto incorrecto,
inventar referencias o datos con mucha seguridad (sí, pasa).
A esto se le suele llamar “alucinación”: cuando la IA genera información falsa o no comprobable pero presentada como si fuera real.
1) Respuestas demasiado seguras para un tema complejo
Señal típica: la IA habla como si hubiera una única verdad, sin matices, sin límites, sin advertencias.
En salud, lo normal es lo contrario: contexto, criterios, contraindicaciones, variabilidad. Si te entrega una “receta universal”, sospecha.2) Datos específicos sin fuente o con “cifras mágicas”
“Esto reduce 73%”, “la guía dice…” o “está aprobado desde…”, pero no te dice de dónde sale.
Si no puedes rastrear la fuente, no lo uses como dato.
3) Recomendaciones clínicas que suenan bien… pero no aplican
A veces la IA combina conceptos correctos con un caso que no corresponde (edad, comorbilidades, signos de alarma). Puede parecer impecable en forma, pero fallar en fondo.
Tú sigues siendo la voz. La IA te ayuda a redactar más rápido.
Cuando uses IA, activa este radar:
Si aparecen dos o más, no es para copiar/pegar. Es para revisar.
Una regla práctica funciona muy bien:
La IA puede apoyar, pero la responsabilidad clínica no se delega.
No basta con preguntar “¿qué hago?”. Pide estructura. Por ejemplo:
“Dame una respuesta con: supuestos, puntos que faltan por confirmar, riesgos/alertas y cuándo derivar/urgencias.”
Eso fuerza a la IA a ser más cuidadosa y te deja ver si está inventando.
Si lo vas a usar para educación del paciente o para una decisión que toca salud, valida contra:
IA primero como borrador, fuente después como filtro.
Antes de utilizar lo que te dio la IA, haz este mini control:
Si hay riesgo, se revisa. Si hay duda, se descarta.
Aunque la IA “ayude”, evita incluir datos sensibles identificables del paciente. En general:
La inteligencia artificial puede ser una gran aliada, siempre que la uses con una idea clara: no es una fuente de verdad, es una herramienta de apoyo. Si aprendes a detectar señales de error, haces validaciones rápidas y mantienes límites (especialmente en temas clínicos), puedes aprovechar sus beneficios sin poner en riesgo tu práctica ni la confianza del paciente. En salud, la mejor combinación sigue siendo la misma: tecnología para aliviar carga, y tu criterio para decidir.