Astronomía, divulgación, descubrimientos, ecología, innovación...
SITUACIONES DISPARATADAS
La alucinaciones de la IA nos han brindado algunos momentos hilarantes, con afirmaciones totalmente ridiculas, y ahora unos investigadores han creado un algoritmo que será capaz de detectarlas.
El año y medio que nos lleva acompañando la IA generativa ha servido para encontrarnos con numerosas situaciones de lo más chocantes y sorprendentes. Una de las más habituales han sido las alucinaciones de la IA. Estas son básicamente esos momentos de las conversaciones en las que la IA comienza a comportarse de manera totalmente errática y sin sentido, afirmando cosas que todos sabemos que son mentira y que un humano solo diría en caso de encontrarse muy alterado mentalmente y probablemente bajo el efecto de algunas drogas. Pues bien, varios investigadores ahora han creado un algoritmo que es capaz de detectar estas bochornosas situaciones generadas por la IA.
Así se puede describir a los algoritmos que han sido creados por estos investigadores del departamento de Ciencias de la Computación de la Universidad de Oxford. Estos han conseguido que con estos algoritmos sea posible reconocer en el 79% de las ocasiones si la IA está alucinando y si estas respuestas están siendo producto de un funcionamiento errático. Esto viene a ser una mejora de más o menos el 10% respecto de otros métodos para conseguir averiguar la misma información, por lo que se trata de una mejora evidente.
El método que han utilizado para poder dar con esta información es bastante sencillo e ingenioso a partes iguales. Y es que han pedido al chatbot que responda a la misma pregunta en diferentes ocasiones, en una horquilla que se mueve de las cinco a las diez veces. Después se ha calculado un número que establece la denominada entropía semántica, que mide las diferencias entre los diferentes significados de las distintas respuestas.
Cuando se detecta que las respuestas son diferentes entre sí, la puntuación de la entropía semántica aumenta, lo que es un indicador de que la IA podría estar alucinando y por tanto se detectaría que estamos en una de esas situaciones donde las respuestas podrían tener cualquier tipo contenido, generalmente sin sentido. Por lo contrario, si las respuestas son todas iguales entre sí, esa puntuación de entropía semántica será menor, y por tanto no habrá probabilidades de que la IA esté sufriendo alucinación alguna.
Estos investigadores creen que sería bastante sencillo añadir este detector de alucinaciones a chatbots como el de ChatGPT, que es el más popular en todo el mundo en lo que a IA generativa se refiere. Así que esto puede ser un anticipo de lo que puede ser una nueva funcionalidad habitual en los diferentes chatbots que están disponibles actualmente, como pueden ser Copilot, Gemini, y el propio ChatGPT.
Desde luego es algo necesario, porque no siempre se pueden detectar estas alucinaciones, y es algo bastante frustrante, ya que estas situaciones suelen llevarnos a desconfiar de la IA, y a reducir su uso, cuando debería ser todo lo contrario, una inteligencia capaz de ayudarnos sin necesidad de tener que estar recurriendo a estas alucinaciones, que en algunos casos han terminado en situaciones sencillamente hilarantes. Estamos seguros que este tipo de algoritmos llegarán a todos más pronto que tarde.