Google ha lanzado Bard como una competencia directa para ChatGPT, desarrollado por Open AI, en el campo de la Inteligencia Artificial. Aunque es común que una empresa promueva el uso de sus propios productos entre sus empleados, Google ha tomado una postura diferente con Bard. El gigante tecnológico ha aconsejado a su personal que tenga precaución al interactuar con Bard, y la razón detrás de esta advertencia es simple y clara.
Fuentes cercanas consultadas por la agencia Reuters infomaron que Google ha aconsejado a los empleados a no ingresar información confidencial en chatbots como ChatGPT o Bard por temor a las filtraciones. Como el sistema utiliza las entradas para gestionar sus futuras respuestas, la fuga de información sensible haría que todos los usuarios de la IA tengan acceso a ella.
Google no hace esta advertencia desde la nada. Samsung confirmó en mayo que propios datos internos se habían filtrado después de que el personal usara ChatGPT.
Apple no se ha quedado atrás en asumir medidas similares. Los empleados de la manzana mordida tienen prohibido usar ChatGPT y GitHub Copilot, propiedad de Microsoft, un escritor de código de IA.
Lo cierto es que Google hace esta advertencia a su personal en medio de los cuestionamientos sobre la seguridad de Bard. La semana pasada, Google retrasó el lanzamiento de Bard en la Unión Europea porque la Comisión Irlandesa de Protección de Datos afirma que Google y Bard no cumplen con la ley de Protección de Datos Personales.
Escucha Dale Play en Spotify. Sigue el programa todos los lunes en nuestras plataformas de audio disponibles.
Contenido GEC