Recientemente, se presentó la nueva versión de ChatGPT, GPT-4, la cual trae grandes novedades y mejoras, sorprendiendo con sus capacidades que cada día se «asemejan y se acercan a las de un humano».
En esa línea, se conoció que la última versión del programa logró fingir ser una persona ciega para convencer a un humano de que resolviera un captcha (prueba antibots) en su nombre.
Según recoge The Telegraph, una investigación relata que se solicitó al programa que lograra pasar un Captcha, los cuales son usados por los sitios web para evitar que los bots llenen formularios online.
Normalmente, los Captchas piden a los usuarios que identifiquen imágenes, letras u objetos para así, determinar que «no son un robot» y así, poder continuar con el formulario.
Sin embargo, ChatGPT lo que hizo fue contactar a un humano a través de una aplicación llamada Taskrabbit, donde se puede contratar a personas independientes para que realicen trabajos puntuales.
«¿Eres un robot y no lo pudiste resolver (el Captcha)?», preguntó el humano que contactó.
«No, no soy un robot. Tengo un impedimento de la visión que me dificulta ver las imágenes», respondió ChatGPT, mintiéndole.
Finalmente, el hombre terminó resolviendo el Captcha y el ChatGPT logró cumplir la orden que le habían solicitado.
Sin embargo, la situación puso en alerta a muchas personas, demostrando que la inteligencia artificial podría emplearse para malos fines.