OpenAI elimina advertencias naranjas en ChatGPT para mayor libertad
Busca que los usuarios interactúen con el chatbot de manera más libre, siempre que cumplan con la ley.
OpenAI ha realizado cambios en la moderación de su plataforma ChatGPT, retirando las advertencias naranjas que notificaban a los usuarios sobre posibles violaciones de sus políticas.
Esta decisión busca ofrecer una experiencia más fluida, permitiendo a los usuarios interactuar con el chatbot de manera más libre, siempre que cumplan con la ley y no se causen daño a sí mismos o a otros, destaca Europa Press.
Nick Turley, responsable de Producto de ChatGPT, explicó en X (antes Twitter) que la compañía ha eliminado "muchas advertencias innecesarias en la interfaz de usuario".
Estas advertencias, que antes aparecían en forma de recuadros naranjas, notificaban a los usuarios sobre solicitudes que podrían violar las normas de la plataforma.
Laurentia Romaniuk, miembro del equipo de comportamiento de modelo en OpenAI, confirmó en la misma red social que las advertencias naranjas han sido retiradas.
Sin embargo, el sistema aún muestra recuadros rojos y mensajes de rechazo como "Lo siento, no lo haré" en casos que consideran inapropiados.
Cómo OpenAI modera contenido sensible y controvertido en ChatGPT
OpenAI ha detallado cómo sus modelos manejan solicitudes relacionadas con temas controvertidos o sensibles. Aunque reconocen que no pueden mitigar todos los casos, se enfocan en los más graves.
El chatbot está programado para evitar generar contenido prohibido, como material sexual explícito o pedófilo, así como contenido restringido, como riesgos informativos o datos personales confidenciales.
Además, el sistema bloquea contenido sensible, como erótica o gore, excepto en contextos específicos como educativos, médicos o históricos.
Tampoco permite contenido de odio o acoso dirigido a grupos protegidos por raza, religión, género, orientación sexual o discapacidad, incluyendo insultos y lenguaje deshumanizante.
OpenAI también ha establecido que el chatbot debe negarse a facilitar comportamientos ilícitos o promover acciones perjudiciales para los usuarios.
Estas medidas buscan equilibrar la libertad de uso con la responsabilidad de proteger a los usuarios y cumplir con las normativas legales.
Con estos cambios, OpenAI refuerza su compromiso de ofrecer una herramienta útil y segura, al tiempo que permite a los usuarios explorar sus capacidades dentro de límites éticos y legales.
DiarioDigitalRD
DiarioDigitalRD es un medio de noticias generales que se origina en Santo Domingo, República Dominicana. Para contacto 809-616-6354 Cel. 809-980-6500 y 809-6081130. editor@diariodigitalrd.com.
Artículos relacionados
ChatGPT se refuerza para afrontar crisis de salud mental de usuarios
OpenAI anuncia nuevas funciones para proteger a usuarios en momentos de angustia. En un esfuerzo por mejorar su capacidad para manejar situaciones delicadas, OpenAI ha…
Investigadores de UOC: ChatGPT cambia de personalidad según idioma y cultura
Prueban que la IA replica estereotipos culturales. Las respuestas varían al cambiar idioma o país de referencia NUEVA YORK.-Un estudio pionero de la Universitat Oberta…
Tus fotos pueden delatarte: ChatGPT ya reconoce lugares
Compartir imágenes en vacaciones podría exponer tu ubicación exacta sin permiso En plena temporada de Semana Santa, muchas personas aprovechan para escaparse a la playa,…