En début de semaine, un homme a découvert des conversations d’origine inconnue dans son historique avec ChatGPT, dévoilant de nombreuses données privées. Le manque de sécurité du chatbot est pointé du doigt.
Une nouvelle controverse vient d’éclater autour de la sécurité des données de ChatGPT, et des chatbots en général. Le site Ars Technica a dévoilé l’histoire d’un de ses lecteurs qui a eu une expérience pour le moins inquiétante en utilisant l’intelligence artificielle d’OpenAI.
L’homme a expliqué avoir découvert dans son historique sur ChatGPT des conversations qui n’étaient pas les siennes. Chaque conversation semble avoir été menée par une personne différente, et contenait souvent des informations personnelles. Il y avait notamment quelqu’un qui travaillait sur une présentation, des détails d’un article de recherche non publié, ou encore un script en PHP. Toutefois, le plus grave était lié à un employé d’une pharmacie qui tentait de résoudre des problèmes avec son site Web à l’aide du chatbot. La discussion contenait plusieurs noms d’utilisateurs et mots de passe, le nom de l’application et même le numéro de téléphone de la pharmacie.
Attention à ce que vous partagez avec une IA
OpenAI a répondu et indiqué que son compte aurait été compromis et utilisé pour fournir un accès gratuit à ChatGPT 4 à un groupe d’utilisateurs au Sri Lanka. Toutefois, l’homme n’est pas convaincu, et indique avoir utilisé un mot de passe fort qui n’est associé à aucun autre compte, à part un compte Microsoft. Malheureusement, OpenAI n’offre aucun moyen de sécuriser son compte avec l’authentification à deux facteurs, ni de consulter un historique des connexions.
Gary Marcus, chercheur en IA et psychologie cognitive, a aussitôt réagi sur X (anciennement Twitter) en indiquant que ChatGPT n’est absolument pas sécurisé. Il rappelle que tout ce que l’on partage avec un chatbot peut être utilisé pour l’entraîner, partagé avec d’autres utilisateurs, utilisé pour des publicités ciblées ou encore revendu.
Par Futura Sciences
Comments