¿Hasta qué punto se puede confiar en una respuesta que suena segura? En redes sociales se volvió viral el aviso de la creadora Kristi (@rawbeautybykristi) tras un susto serio: una amiga pidió a ChatGPT que identificara una planta del jardín usando una foto y recibió un mensaje tranquilizador.
El problema fue doble. Por un lado, mucha gente usa chatbots para resolver dudas rápidas. Por otro, cuando el tema es salud o plantas venenosas, un error puede costar caro. La historia llamó la atención porque la IA no solo se equivocó, también pareció “convencida”.
¿Qué pasó con la planta? Del “parece zanahoria” al riesgo real
Según contó Kristi, su amiga fotografió una planta desconocida y preguntó qué era. El chatbot respondió que parecía follaje de zanahoria, apoyándose en detalles visuales como hojas finas y plumosas. Incluso aportó razones de “confianza” y mencionó plantas parecidas que suelen confundirse entre sí.
Lo inquietante llegó después. En la conversación, la propia IA nombró como posible parecido a la cicuta venenosa (poison hemlock), pero cuando la usuaria preguntó de forma directa si podía ser esa especie, recibió varias negativas. Aun con señales que podían encajar, el mensaje siguió siendo calmante.
Cuando contrastaron la identificación con otras herramientas de búsqueda por imagen y con otra sesión distinta del propio ChatGPT, aparecieron respuestas opuestas que sí advertían del riesgo. Esa inconsistencia fue clave: el mismo material, en contextos distintos, generó conclusiones diferentes. En un caso así, un exceso de seguridad no ayuda, baja la guardia. Una respuesta convincente no es lo mismo que una respuesta correcta, sobre todo cuando hay toxicidad en juego.
¿Por qué la cicuta venenosa se confunde tan fácil con otras plantas?
La cicuta venenosa se parece a varias especies comunes en fotos. Algunas comparten ese patrón de hojas recortadas que recuerda a la zanahoria silvestre, el perejil o el cilantro. También se cita a menudo el “encaje de la reina Ana” como parecido.
El tallo y otros detalles pueden ser decisivos, como el aspecto liso y hueco y posibles manchas violáceas. Aun así, una imagen puede engañar por la luz, el ángulo o la resolución. Por eso, una foto aislada no siempre permite una identificación fiable.
El problema de fondo: por qué un chatbot puede alucinar y sonar convincente
En IA, una “alucinación” no es algo místico. Es una respuesta plausible pero falsa. El modelo completa patrones de texto y, en herramientas con imagen, intenta emparejar rasgos visuales con ejemplos vistos en entrenamiento. No razona como un botánico con la planta delante.
Además, la misma pregunta puede variar según el contexto. Un chat previo, una frase distinta o una imagen recortada cambian el resultado. En el caso de Kristi, el riesgo aumentó porque el bot dio argumentos y un tono de certeza. Si alguien recibe una explicación ordenada, suele confiar más, aunque falten pruebas. En temas de seguridad, esa “seguridad inventada” es el verdadero peligro. No solo puede fallar, también puede empujar a actuar antes de confirmar.
Señales de alerta en una respuesta de IA sobre salud o seguridad
Cuando la IA responde con un tono demasiado seguro, sin citar fuentes verificables y sin advertencias claras, conviene frenar. También es mala señal que anime a manipular, probar o consumir algo sin confirmación externa. Con plantas potencialmente tóxicas, cualquier duda debe tratarse como riesgo real, aunque el texto suene tranquilizador.
¿Cómo usar ChatGPT sin ponerse en peligro al identificar plantas?
La IA puede servir como punto de partida, no como diagnóstico. Si se usa para identificar plantas, ayuda pedir que indique límites, nivel de incertidumbre y posibles confusiones, en lugar de aceptar una sola etiqueta.
Luego toca contrastar. Una guía botánica seria, un servicio local de extensión agrícola, un jardinero con experiencia o un centro de toxicología aportan criterios que un chatbot puede pasar por alto. También conviene evitar tocarse la cara tras manipular plantas desconocidas y, desde luego, no ingerir nada “por si acaso”. El aprendizaje del caso es simple: la amiga buscó una segunda opinión a tiempo. Si hay ingestión o síntomas, lo prudente es buscar ayuda médica inmediata y no esperar a que una app lo confirme.


