He estado trasteando un poco más de la cuenta y he visto un tema muy importante que no ha sido tenido en cuenta en los chats de inteligencia artificial (ChatGPT, Copilot, Gemini, Claude, Perplexity,…). Se trata del aprendizaje global a través de la realimentación humana directa verificada por Internet. Es decir, si nosotros corregimos la información que nos da el chat (como las frecuentes «alucinaciones» o datos erróneos), esta corrección debería de ser contrastada por el chat en Internet y, si se verifica y se ve fiable, debería actualizarse inmediatamente a nivel global para todos los usuarios. Pero no es así: el chat de inteligencia artificial sólo se corrige con sus propios «entrenamientos», no permitiendo esta legítima corrección.

En mi caso, simplemente intenté corregir una cosa tan sencilla como la discografía de Luis Quintana, cantautor canario (hay más Luis Quintana) y me aceptó que la información era errónea, e incluso la modificó dentro de mi «memoria» personal, pero se negó a actualizar la información para todos los usuarios.
Es un fallo importante, ya que, con sólo corregir este comportamiento de los chats de inteligencia artificial, tendríamos una información mucho más veraz, eficaz y eficiente. Yo, por mi parte, ya lo he comunicado como sugerencia de mejora en ChatGPT y en Copilot (dialogando con ambos chats y aceptando éstos que era un fallo importante). Espero que los desarrolladores lo tengan en cuenta para mejorar la veracidad de la información en los chats de inteligencia artificial.
