OpenAI restringe a ChatGPT, pues se reveló que prohibió a la Inteligencia artificial dar consejos médicos, legales o financieros.
¿Por qué OpenAI prohibió a ChatGPT dar consejos médicos, legales y financieros?
A partir del pasado 29 de octubre, OpenAI prohibió a ChatGPT dar consejos médicos, legales y financieros al ser considerados áreas sensibles; además busca garantizar la seguridad de los usuarios.
De acuerdo con OpenAI, busca que su modelo de IA, ChatGPT, no interfiera con la capacidad de acceder a servicios críticos como lo son los médicos, legales y financieros e incluso gubernamentales.



Esto especialmente cuando los temas esenciales que se quieran consultar con ChatGPT, necesiten asesoramiento humano, pues aunque la IA podrá seguir respondiendo a preguntas generales o hipotéticas, no podrá oferecer recomendaciones personales.
La decisión de OpenAI de restringir a ChatGPT para no dar consejos médicos, legales o financieros, llega después de que se hayan reportado varios incidentes sobre los límites del uso de la tecnología en temas sensibles.
En abril del 2025 se mencionó el caso del joven Adam Raine, quien murió tras mencionar que mantuvo conversaciones con ChatGPT sobre autoayuda, lo cual provocó una ola de debates y críticas sobre los límites y controles de interacción entre los usuarios y la IA.

