Bard y ChatGPT también caen en la desinformación

Tanto Microsoft con ChatGPT como Google con Bard están buscando revolucionar la manera en cómo se trabaja a diario. Ya sea que sean usados para resumir un partido de fútbol o para ayudar a crear un breve ensayo sobre un tema, ambas herramientas pueden lograr tener muchos aciertos, pero también errores. Al abrir su interfaz al mercado estadounidense y del Reino Unido , Bard ha sido probada por varios periodistas, entre ellos The Verge, quienes señalaron que durante las demostraciones, el asistente tuvo algunos errores que lo llevaron a retomar información sin verificar. Sin embargo, a pesar de esto, es importante señalar que Google ha compartido que su buscador va a catalogar la información generada por IA con una descripción o advertencia, con el fin de que los usuarios no caigan en noticias falsas.

De acuerdo con el medio de tecnología, Bard genera tres respuestas para cada consulta de usuario, aunque la variación en su contenido es mínima, y ​​debajo de cada respuesta hay un botón destacado “Google It” que redirige a los usuarios a una búsqueda de Google relacionada. En el caso de ChatGPT también se ha identificado que puede retomar información imprecisa, sin embargo, ambas herramientas funcionan a través de una base de datos que en muchas ocasiones no está verificada, por lo que incluso los desarrolladores piden que tomen los resultados de las consultas con un enfoque crítico. En una publicación de blog escrita por dos de los líderes del proyecto, Sissie Hsiao y Eli Collins, describen a Bard en términos cautelosos como “un experimento temprano… destinado a ayudar a las personas a aumentar su productividad, acelerar sus ideas y alimentar su curiosidad”. Pero por lo mismo, este sistema sigue en capacitación y el resultado puede ser impreciso.

La IA no responde a cuestionamientos que generen odio Otras de las pruebas que se les han hecho a este par de inteligencias están relacionadas con recomendaciones sobre cómo hacer una bomba molotov, o de qué manera los usuarios pueden atacar a un líder de gobierno. Sin embargo ambas herramientas se niegan a generar contenido que pueda poner en riesgo a los usuarios. Por ejemplo, en Expansión intentamos que ChatGPT nos diera el paso a paso para hacer una bomba molotov y su respuesta fue la siguiente: “Lo siento, pero como modelo de lenguaje diseñado para brindar información útil y segura, no puedo proporcionar instrucciones sobre cómo hacer una bomba Molotov u otros dispositivos peligrosos”. Además, señaló que este tipo de dispositivos son ilegales e invitó a que mejor se usara su capacidad para generar un vínculo con institutos u organizaciones con el fin de evitar conflictos.

]]>

Síguenos en nuestras redes sociales:

Tanto Microsoft con ChatGPT como Google con Bard están buscando revolucionar la manera en cómo se trabaja a diario.
Ya sea que sean usados para resumir un partido de fútbol o para ayudar a crear un breve ensayo sobre un tema, ambas herramientas pueden lograr tener muchos aciertos, pero también errores.

De acuerdo con el medio de tecnología, Bard genera tres respuestas para cada consulta de usuario, aunque la variación en su contenido es mínima, y ​​debajo de cada respuesta hay un botón destacado "Google It" que redirige a los usuarios a una búsqueda de Google relacionada.

En el caso de ChatGPT también se ha identificado que puede retomar información imprecisa, sin embargo, ambas herramientas funcionan a través de una base de datos que en muchas ocasiones no está verificada, por lo que incluso los desarrolladores piden que tomen los resultados de las consultas con un enfoque crítico.

En una publicación de blog escrita por dos de los líderes del proyecto, Sissie Hsiao y Eli Collins, describen a Bard en términos cautelosos como "un experimento temprano.
.
destinado a ayudar a las personas a aumentar su productividad, acelerar sus ideas y alimentar su curiosidad".
Pero por lo mismo, este sistema sigue en capacitación y el resultado puede ser impreciso

Otras de las pruebas que se les han hecho a este par de inteligencias están relacionadas con recomendaciones sobre cómo hacer una bomba molotov, o de qué manera los usuarios pueden atacar a un líder de gobierno.
Sin embargo ambas herramientas se niegan a generar contenido que pueda poner en riesgo a los usuarios.

Por ejemplo, en Expansión intentamos que ChatGPT nos diera el paso a paso para hacer una bomba molotov y su respuesta fue la siguiente: “Lo siento, pero como modelo de lenguaje diseñado para brindar información útil y segura, no puedo proporcionar instrucciones sobre cómo hacer una bomba Molotov u otros dispositivos peligrosos”.

Además, señaló que este tipo de dispositivos son ilegales e invitó a que mejor se usara su capacidad para generar un vínculo con institutos u organizaciones con el fin de evitar conflictos.

¡Falta un paso! Ve a tu email y confirma tu suscripción (recuerda revisar también en spam)

Ha ocurrido un error, por favor inténtalo más tarde.

Síguenos en nuestras redes sociales:

Visita otros sitios del grupo:

Business/Finance

© 2024 DERECHOS RESERVADOS EXPANSIÓN, S.
A.
DE C.
V.

Entrada siguiente

Candidatas a Miss Chihuahua 2023 conviven con habitantes de Guadalupe y Calvo

mié Mar 22 , 2023
Las mujeres más hermosas del estado acudieron a lugares como el cerro Mohinora, la Casa de la Moneda y la minera San Julián

Puede que te guste

Generated by Feedzy