Chatbot Bard es un asesino potencial, advierten empleados de Google

Chatbot Bard es un asesino potencial, advierten empleados de Google

Foto: Unsplash

El 'chatbot' Bard de Google podría dar consejos que ponen en peligro la vida, según una encuesta que abarcó a miles de empleados de la empresa. Dicen que este 'chatbot' no sólo es un "mentiroso patológico", sino potencialmente un asesino, pero Google hace la vista gorda a las advertencias de sus trabajadores.

 

Bloomberg conversó con 18 de estos empleados y exempleados de la empresa para descubrir las maneras en que Bard puede poner en peligro las vidas de sus usuarios. Por ejemplo, un trabajador denunció que el bot le había dado consejos sobre submarinismo que "probablemente provocarían lesiones graves o la muerte", mientras que a otro le ofreció una respuesta peligrosa sobre cómo aterrizar un avión, que sin duda causaría una catástrofe aérea.

 

Uno de la plantilla fue más allá y escribió una nota, que fue vista por unos 7.000 usuarios de Google, donde calificó a Bard como "peor que inútil" y rogó a la empresa que no lo lanzara, informa el medio.

 

Según las fuentes de la agencia, a los especialistas en ética se les ordenó que se retiren, ya que la empresa se apresuraba a lanzar su sistema de inteligencia artificial al mercado. Meredith Whittaker, exdirectiva de la empresa, afirmó que "la ética de la IA ha pasado a un segundo plano" frente a los beneficios. Esto confirmaron otros dos trabajadores, añadiendo que las revisiones éticas son casi totalmente opcionales.

 

En particular, los criterios bajaron significativamente, actualmente no hace falta cumplir con el 99% en métricas como la "imparcialidad". En vez de eso, sólo tienen que llegar al "80%, 85% o algo así" para poder lanzarse, informó a los empleados Jen Gennai, responsable de la gestión de la IA.

 

A principios de abril, dos denunciantes trataron de impedir que se pusiera en marcha el bot Bard, pero su intento fracasó. Gennai afirmó que no es un "lanzamiento del producto", sino un "experimento".

 

En marzo pasado, Bard fue presentado como competidor del famoso ChatGPT. Cuando se lanzó este, Google no tenía su propia IA generativa entre sus productos que los clientes pudieran utilizar realmente. Así, los empleados de Google revelaron que la empresa entró en pánico y se apresuró a crear su propio bot. No obstante, Google niega haber degradado la ética.

 

"Seguimos invirtiendo en los equipos que trabajan en la aplicación de nuestros principios de IA a nuestra tecnología", declaró el portavoz Brian Gabriel.

 

La compañía despidió a tres miembros responsables de la IA en enero.

 

Google anunció planes para presentar más de 20 productos nuevos con tecnología artificial en 2023. Aun así, según Bloomberg, los que se encargan de la ética están ahora "desempoderados y desmoralizados".

Notas Relacionadas