ChatGPT supera experimento con estudiantes, no hay examen que lo derrote
Si hay una herramienta que ha revolucionado la popularización de la inteligencia artificial, es sin duda ChatGPT.
Si hay una herramienta que ha revolucionado la popularización de la inteligencia artificial, es sin duda ChatGPT. Este chatbot, desarrollado por OpenAI, ha llevado esta tecnología a un público mucho más amplio, dejando de ser un recurso especializado para convertirse en una herramienta de uso común en diversas aplicaciones.
El progreso ha sido impresionante en un corto período; no obstante, no todas las noticias sobre la IA son alentadoras. Según un reciente informe de Ars Technica, un equipo de investigadores liderado por Peter Scarfe, de la Facultad de Psicología y Ciencias Clínicas del Lenguaje en la Universidad de Reading, llevó a cabo un experimento para examinar ciertas habilidades de la IA.
El estudio involucró la creación de más de 30 perfiles falsos de estudiantes que utilizaron inteligencia artificial para responder a preguntas en cinco módulos diferentes de psicología. Los resultados fueron sorprendentes: el 94% de las respuestas generadas por la IA no fueron detectadas como tales y pasaron inadvertidas. Además, ChatGPT logró calificaciones superiores a las de los estudiantes reales en el 84% de los casos.
La verdad detrás del experimento
Según la fuente, los evaluadores no fueron informados en ningún momento de que estaban calificando trabajos realizados por inteligencia artificial, asegurando así la integridad del experimento. Las respuestas variaron en extensión, desde 160 hasta 2,000 palabras, pero aun así, los evaluadores quedaron impresionados cuando descubrieron el origen real de los “estudiantes”.
Para llevar a cabo este experimento, los investigadores utilizaron versiones de ChatGPT, conocidas como GPTZero, que lograron una tasa de fallos de solo el 9%, considerablemente más baja que la de los estudiantes humanos, indica Xataka.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí