Google está trabajando en interesantes soluciones para mejorar la fiabilidad de las respuestas generadas por su inteligencia artificial, Bard. Para garantizar la calidad y fiabilidad de los textos producidos, Bard introdujo una nueva función, llamada “doble check”, que hace uso de la información disponible en la web para verificar las respuestas. Esta nueva herramienta podría tener un impacto significativo en la confianza que los usuarios depositan en los contenidos generados por la IA.
De hecho, la duda y la confianza están estrechamente relacionadas. Antes de calificar una información como digna de confianza, necesitamos comprobarla, verificar la fiabilidad de las fuentes y, tal vez, sopesar diferentes opiniones sobre el mismo tema. Pero cuando las personas interactúan con máquinas, las cosas cambian. Existe el sesgo de automatización, que es ese fenómeno que lleva a los usuarios a considerar las respuestas generadas por computadora como correctas y óptimas. La realidad, sin embargo, es muy distinta: las IA generativas tienen varios problemas de fiabilidad y pueden tener “alucinaciones” que las llevan a dar respuestas parciales, incorrectas o, en algunos casos, totalmente inventadas.
Índice de temas
Cómo funciona el doble check de Bard
El doble check de Google Bard es una nueva especificación introducida por Google para mejorar la precisión y fiabilidad de las respuestas proporcionadas por Bard, su IA generativa. Esta función utiliza la principal fortaleza de Google: el acceso directo a un enorme conjunto de datos indexados de información en Internet. De momento, esta nueva función solo está disponible para las búsquedas en inglés, pero pronto se ampliará a todas las cuentas.
Cómo funciona el doble check de Google Bard
Respuesta inicial
Cuando Bard genere una respuesta o solución, el usuario dispondrá de un nuevo botón “G”. Ese botón ofrecerá la posibilidad de realizar una investigación adicional para verificar la respuesta proporcionada por Bard.
Respuesta resaltada en verde
Respuesta confirmada. Existen fuentes fiables que apoyan la respuesta dada por Bard.
Respuesta sin resaltar
Ni confirmada ni desmentida online. Es como si Bard dijera “sin comentarios”. Puede tratarse de una respuesta para la que no se puede encontrar información clara online.
Respuesta resaltada en naranja
Respuesta dudosa; algunas páginas de Internet expresan fuertes dudas o sugieren un posible error en la respuesta de Bard.
El usuario tiene la opción de hacer clic en cada una de las respuestas resaltadas en verde y naranja para ser redirigido a una nueva ventana del navegador. En esta nueva ventana, el usuario puede consultar directamente las fuentes online que confirman o refutan la respuesta de Bard.
Esto permite al usuario examinar las fuentes por sí mismo para hacer una evaluación personal de las diversas opiniones sobre el tema y, en consecuencia, estimar la fiabilidad de la respuesta generada por la IA.
El doble check de Google Bard es una herramienta que proporciona a los usuarios un mayor control y transparencia sobre las respuestas generadas por la inteligencia artificial. Les permite comprobar de forma independiente la validez de las respuestas examinando las fuentes y las distintas opiniones sobre el tema para tomar decisiones con conocimiento de causa.
La confianza del usuario: el próximo desafío para las IA generativas
La confianza del usuario es un factor crucial en el avance de la inteligencia artificial. Es necesario encontrar un nuevo equilibrio entre la duda y la confianza, superando el sesgo de la automatización mediante una mayor concienciación y mejorando la arquitectura de las IA para proporcionar a los usuarios nuevas herramientas que garanticen la fiabilidad.
Sin confianza, será imposible aplicar la IA a los escenarios cotidianos que requieren interacción, colaboración y toma de decisiones. Pero esta confianza no viene dada; debe ganarse mediante la demostración de fiabilidad, transparencia y responsabilidad de las herramientas basadas en la IA.
La era de Internet ha supuesto una revolución sin precedentes para la comunicación global. Pero con el progreso tecnológico llegaron nuevos desafíos, como la propagación desenfrenada de la desinformación y la manipulación de las masas mediante contenidos distorsionados.
El advenimiento de la inteligencia artificial ha suscitado tanto esperanzas como preocupaciones al respecto. La IA podría ser tanto parte del problema como parte de la solución, dependiendo de cómo se utilice y regule. Aunque la IA puede utilizarse para crear contenidos falsos y engañosos de forma más sofisticada que las personas, también puede utilizarse para desarrollar herramientas avanzadas de verificación y corrección de la información.
Los desarrolladores y proveedores de IA tienen un papel crucial en este contexto. Deben esforzarse por crear soluciones que sean éticas, seguras y respetuosas con los derechos humanos. Esto incluye la adopción de principios claros de responsabilidad en el uso de la IA y de transparencia en la creación y el entrenamiento de los algoritmos.
Inteligencias artificiales que dudan de sí mismas
Es esencial que las IA generativas adquieran la capacidad de dudar de sí mismas, ya que esta característica contribuye significativamente a mejorar la fiabilidad y la calidad de la información que ofrecen a los usuarios.
La capacidad de expresar incertidumbre es un elemento crucial en la comunicación humana, y lo es igualmente para las IA. Cuando un sistema de IA puede reconocer y señalar su incertidumbre sobre una respuesta o la presencia de datos de entrada inciertos, abre la puerta a un diálogo más transparente e informativo. De este modo, se puede alertar a los usuarios cuando una respuesta puede no ser del todo exacta o puede requerir una mayor verificación.
Esto fomenta la confianza de los usuarios en la inteligencia artificial y promueve una colaboración más eficaz entre la IA y las personas, permitiéndoles hacer decisiones más informadas basadas en una comprensión más clara de la información disponible.
Prohibida su reproducción total o parcial.