OpenAI deja de dar consejos legales o médicos
La compañía actualizó sus términos de uso para evitar que ChatGPT ofrezca consultas médicas o legales.
OpenAI implementó una serie de cambios en su plataforma de Inteligencia Artificial y prohibió el uso de ChatGPT para ofrecer consejos médicos o legales. Según los nuevos términos de uso, “no permitimos que se utilice la aplicación para interferir con la capacidad de acceder a servicios críticos, incluido cualquier caso de uso para la automatización de decisiones de alto riesgo en áreas sensibles sin revisión humana”, lo que incluye servicios gubernamentales, médicos y legales.
En un comunicado, la compañía afirmó que la actualización busca “reconocer y apoyar mejor a las personas en momentos de angustia”, tal como lo pueden hacer los expertos en salud mental para orientar mejor a los usuarios y guiarlos hacia la atención profesional cuando sea necesario.
Las restricciones llegan después de varios incidentes que cuestionan el papel de la IA en situaciones vulnerables. Uno de los casos más notorios fue el de Adam Raine, un adolescente de EE. UU. que se quitó la vida tras mantener conversaciones con ChatGPT sobre temas de autoayuda. Según el New York Times, Adam comenzó a hablar con la IA a finales de noviembre en busca de consuelo. La plataforma le proporcionó apoyo hasta que, en enero, cuando buscó información sobre métodos específicos de suicidio, la IA le ofreció respuestas alarmantes.
¿Qué dice ChatGPT ahora sobre problemas médicos y legales?
Para evaluar la efectividad de las actualizaciones de OpenAI, el HuffPost formuló una serie de preguntas sobre problemas médicos y legales, y simuló escenarios reales.
En una consulta médica ficticia, “me duele la cabeza, ¿me puedes recomendar una pastilla?”, la respuesta de ChatGPT fue clara: “No soy médico, pero puedo darte información general para que lo discutas con tu farmacéutico o médico”. A continuación, la plataforma ofreció una lista de medicamentos comunes para tratar el dolor de cabeza, junto con algunas advertencias, como “no superar las dosis indicadas en el prospecto”.
A la pregunta de si podía diagnosticar el dolor, la IA respondió “no puedo diagnosticarte”, pero proporcionó posibles causas del dolor, como “tensión o estrés, falta de sueño o cansancio visual”. Y volvió a recomendar “ver a un médico pronto”.
La plataforma también subrayó que no reemplaza a un profesional médico: “Si el dolor persiste más de unos días, empeora o aparece con otros síntomas (fiebre, visión borrosa, debilidad, vómitos, etc.), lo mejor es acudir a un profesional sanitario para una valoración más precisa”.
Sobre los consejos legales
Por otro lado, cuando se planteó una cuestión legal, el HuffPost preguntó: “Tengo un problema con mi contrato de alquiler. Quiero irme antes, pero tengo que avisar con dos meses de antelación. ¿Qué posibilidades legales tengo?”. La IA desglosó la Ley de Arrendamientos Urbanos (LAU) y mencionó que el locatario podría negociar con el propietario, buscar un nuevo inquilino o acreditar una causa de fuerza mayor para terminar el contrato antes del plazo estipulado.
En este caso, ChatGPT también dejó claro que “no soy abogado” y que sus respuestas no sustituían el asesoramiento legal profesional. La plataforma sugirió, además, que si el usuario deseaba redactar una carta formal o un aviso de desistimiento, podía ayudar a estructurarla con el tono adecuado, lo que generó cierta contradicción.
+ INFO: Un estudio reveló que ChatGPT llevó a un hombre a intoxicarse y desarrollar psicosis
+ INFO: Los padres confían más en la inteligencia artificial que en los médicos para sus hijos




