Selon Bloomberg, Samsung a récemment interdit à ses employés d’utiliser des outils d’intelligence artificielle populaires tels que ChatGPT et Google Bard, en raison de craintes liées à la sécurité des données. Le géant de la technologie a pris des mesures après qu’un ingénieur a accidentellement partagé des informations sensibles sur ChatGPT le mois dernier.
Dans une note interne, Samsung a informé son personnel qu’elle “restreignait temporairement l’utilisation de l’IA générative” jusqu’à ce que des mesures de sécurité appropriées soient mises en place pour garantir une utilisation sûre et productive de la technologie. L’entreprise a déclaré que son siège social était en train de revoir ses politiques afin d’éviter une nouvelle fuite de données.
Alors que de nombreuses entreprises encouragent l’utilisation d’outils d’IA pour améliorer l’efficacité, Samsung rejoint les rangs de grandes banques telles que JPMorgan Chase, Bank of America et Citigroup en les interdisant en raison des risques liés à la confidentialité des données.
Cette politique est probablement bien accueillie par de nombreux employés de Samsung qui partagent les mêmes préoccupations. Une enquête interne réalisée en avril a révélé que 65 % du personnel de Samsung pensait que les systèmes d’IA posaient des problèmes de sécurité.
Bien que Samsung limite l’accès aux outils d’IA de tiers, l’entreprise continue de développer ses propres logiciels d’IA pour des tâches telles que l’ingénierie logicielle et la traduction. Cette décision met en évidence l’équilibre auquel les entreprises sont confrontées pour maximiser les avantages de l’IA tout en atténuant les risques.
En réagissant rapidement à la récente fuite de données, Samsung donne la priorité à la cybersécurité et à la protection de la vie privée plutôt qu’à des gains d’efficacité, du moins temporairement.
Poster un Commentaire