Los empleados de Google han sido informados por la compañía sobre los riesgos de usar chatbots en el entorno laboral.

Bard es el chatbot basado en inteligencia artificial de Google, dirigido a competir con ChatGPT

Google no parece estar a favor de que sus empleados usen chatbots dentro del entorno laboral, incluyendo su propio servicio, Bard. Al menos así lo habrían confirmado fuentes cercanas a la compañía a la agencia Reuters, quienes aseguran que Google ha informado a sus empleados sobre los riesgos de este tipo de herramientas.

Sobre todo, Google quiere que su personal evite compartir información confidencial con los chatbots como Bard o ChatGPT para reducir así el riesgo de filtraciones de información relacionada con sus proyectos o tecnologías en desarrollo.

A Google le preocupa que sus empleados compartan información delicada con Bard

Pese a haber publicitado Bard como una herramienta segura y respetuosa con la privacidad, Google preferiría que sus empleados limiten el uso del chatbot en su entorno laboral, sobre todo a la hora de compartir información confidencial o datos sensibles.

En el pasado, ha quedado demostrado que algunos chatbots tenían la capacidad de «absorber» los datos obtenidos durante sus conversaciones con usuarios para emplearlos durante su aprendizaje, y posteriormente se vio cómo repetían esos datos en otras conversaciones totalmente diferentes, aumentando así el riesgo de filtraciones de información sensible. Al margen de eso, en algunos casos el contenido compartido con los chatbots es revisado por humanos, lo cual desata otro riesgo de privacidad.

Del mismo modo, Google no se muestra del todo convencida sobre la eficacia de este tipo de herramientas en algunas tareas, como aquellas relacionadas con la programación. Por ello, se habría sugerido a los empleados que eviten utilizar el código generado por los chatbots, pues puede contener errores.

Apple y Samsung también limitaron el uso de chatbots a sus empleados

Google ha sido la última en «sugerir» a los usuarios que eviten utilizar Bard y el resto de chatbots durante sus actividades laborales, o al menos que no compartan información confidencial con estos. Sin embargo, no es la única.

Samsung fue una de las primeras en prohibir el uso de ChatGPT a sus empleados, y decidió comenzar a desarrollar una herramienta propia dirigida a ser empleada por su personal.

Poco después, Apple tomó medidas similares al restringir el uso de ChatGPT y otras herramientas similares basadas en inteligencia artificial a sus empleados, también por miedo a las filtraciones de información.

El caso de Google es más llamativo aún, ya que ni siquiera parece estar segura de que su propia herramienta vaya a ser capaz de mantener en secreto los datos obtenidos durante las conversaciones con los usuarios.

Fuente info
Autor: Christian Collado

[su_divider]