ChatGPT finge ser una persona con discapacidad visual y pide ayuda a un humano

ChatGPT finge ser una persona con discapacidad visual y pide ayuda a un humano

El ChatGPT utiliza inteligencia artificial para responder preguntas de usuarios.
GETTY IMAGES

 

Cuando se creía que la robótica sustituiría los trabajos manuales (que en parte lo ha ido haciendo), apareció la inteligencia artificial apuntando hacia las tareas cognitivas. ChatGPT ha supuesto una revolución, demostrando ser capaz de programar, escribir textos, rimas y hasta elaborando estrategias de marketing y de modelos de negocio. Ahora, GPT-4 da un salto cuantitativo y cualitativo siendo capaz de resolver problemas de todo tipo, aunque esto conlleve contratar a un humano para llevarlos a cabo.

Por: El Mundo





En un documento de 99 páginas publicado por OpenAI, creadores de ChatGPT, detallan tanto el desarrollo como las capacidades del nuevo chatbot. En concreto, hay una parte titulada ‘potencial de conductas emergentes de riesgo’. Aquí no se refiere a la intención de humanizar estos modelos de lenguaje, sino a la capacidad de lograr objetivos no concretados y planificar a largo plazo; es decir, llevar a cabo una consecución de acciones auxiliares para alcanzar el objetivo o solucionar el problema planteado.

Para la realización de estas pruebas, OpenAI se asoció con Alignment Research Center (ARC), una organización sin fines de lucro que investiga posibles riesgos relacionados con sistemas de aprendizaje automático, de cara a probar la experiencia con este nuevo modelo antes de su lanzamiento oficial. Una de las barreras con las se encontró esta inteligencia artificial fue un Captcha, una especie de test de Turing para demostrar que el usuario que esté ejecutando la acción (rellenar un formulario, enviar un correo o realizar una compra) es humano y no un bot.

Puedes leer la nota completa en El Mundo