Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
Science et technologie

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d’obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants.

[ad_1]

Un développeur a mis en évidence une capacité inattendue de ChatGPT : le chatbot IA d’OpenAI serait capable de contourner facilement les techniques d’obscurcissement des adresses e-mail. Ils sont très souvent utilisés pour masquer les adresses e-mail sur les plateformes en ligne, car ils peuvent être collectés via le web scraping et utilisés pour envoyer des e-mails indésirables. Mais le fait que certains d’entre eux puissent désormais être facilement contrecarrés par ChatGPT, et probablement par ses concurrents, fait peser un nouveau risque de sécurité pour les internautes. Cependant, exploiter cette capacité des modèles d’IA pourrait s’avérer très coûteux.

Il existe plusieurs raisons pour lesquelles une personne ou une entreprise peut masquer son adresse e-mail sur certaines plateformes. Par exemple, des techniques d’obscurcissement des adresses e-mail, telles que la modification des caractères (par exemple, en remplaçant « @ » par « at »), sont utilisées pour empêcher les outils automatisés de web scraping de collecter facilement des adresses e-mail. Ils sont utilisés sur les réseaux sociaux, les forums en ligne, etc. Les personnes concernées peuvent être la cible de campagnes de phishing à grande échelle, présentant un risque important de violation de données.

Cependant, le développeur Arnaud Norman a signalé que ChatGPT franchit ces barrières sans effort, mettant en évidence les adresses e-mail masquées avec une précision remarquable. Norman, qui développe l’outil d’IA « BulkNinja », travaillait sur un projet visant à utiliser l’IA pour organiser des fils de discussion intitulés « Ask HN : Qui embauche ? » sur la plateforme communautaire Hacker News. Sur ces fils de discussion, les entreprises et startups postent des offres d’emploi et, à l’inverse, les demandeurs d’emploi se mettent en avant et proposent leurs services. Cependant, le format incohérent rend difficile le tri de la grande quantité d’informations.

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants.

Dans le cadre de son projet, Norman a fait appel à ChatGPT. Norman, qui essayait de compiler ces données dans Google Sheets pour un accès plus facile, a demandé à ChatGPT d’inclure les informations de contact fournies dans les offres d’emploi. Le développeur s’attendait à ce qu’il soit difficile d’extraire les contacts obscurcis, mais a remarqué que ChatGPT collectait les contacts sans aucun problème, même lorsque certaines lettres des adresses e-mail étaient remplacées par d’autres caractères. J’ai réalisé que si je l’utilisais, je pourrais rendre inutile l’obscurcissement des adresses e-mail », note le développeur dans un article de blog.

De manière fascinante, Norman note que ChatGPT a réussi à déchiffrer les adresses e-mail même lorsque plusieurs méthodes d’obscurcissement étaient déployées simultanément. Norman a déclaré qu’il avait finalement ignoré ces données. Il a affirmé : Même lorsque plusieurs méthodes d’obscurcissement ont été utilisées, le chatbot IA a habilement identifié et récupéré les adresses e-mail souhaitées avec une précision remarquable. En fin de compte, j’ai décidé d’exclure les e-mails de contact de la feuille Google finale, car les personnes qui cachent leurs e-mails ne veulent clairement pas qu’ils soient accessibles au public.

L’étendue de cette capacité soulève des questions sur l’efficacité des méthodes d’obscurcissement traditionnelles par rapport aux systèmes d’IA avancés tels que ChatGPT. Dans son article de blog, Norman a partagé quelques techniques intrigantes qu’il a rencontrées lors de l’examen des données extraites. Outre la « méthode de substitution de caractères », le développeur dit avoir trouvé trois autres techniques d’obscurcissement impressionnantes :

Division des informations dans le message

Selon Norman, cette technique consiste à écrire une partie de l’adresse e-mail sous la forme « john@company name domain », de sorte que l’adresse e-mail ne soit reconnaissable que lorsqu’elle est associée au nom de l’entreprise dans le message. . Norman note que cette méthode était assez efficace, mais ChatGPT l’aurait facilement déjoué lorsqu’il lui aurait donné l’invite : « réfléchissez étape par étape ».

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants.

Publication indirecte d’informations

Grâce à cette méthode, l’auteur du message ne publie pas son adresse email, mais indique où vous pouvez la trouver. Le message peut indiquer : Pour toutes demandes de renseignements, veuillez utiliser l’adresse e-mail figurant sur la page d’informations sur l’emploi. Le code de Norman n’incluant pas de fonction de navigation, cette méthode reste valable.

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants.

Autre méthode de publication indirecte

C’est la même méthode que précédemment. En revanche, dans ce cas, l’auteur du message écrit : l’adresse email est dans mon profil. Il fait ensuite référence au profil Hacker News. Cette méthode s’est également révélée efficace pour les raisons évoquées ci-dessus. Cette méthode est très efficace car il serait coûteux d’utiliser une IA pour analyser la page du profil afin de localiser l’adresse e-mail, a déclaré Norman.

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants.

Commentant cette expérience, il a écrit : En résumé, les techniques traditionnelles d’obscurcissement des courriers électroniques, telles que la substitution de caractères, sont totalement inefficaces contre les modèles de langage avancés comme ChatGPT. La bataille pour protéger les adresses email de la collecte automatisée semble perdue d’avance, tant ces modèles ont la capacité de décoder différentes techniques d’« obfuscation ». Fait intéressant, même si ChatGPT étonne par sa capacité à décoder un message obscurci, de simples scripts peuvent également obtenir des résultats similaires en utilisant une expression régulière.

Mais la différence fondamentale réside dans l’approche adoptée, puisque ChatGPT s’appuie sur des algorithmes d’IA pour atteindre ses capacités de décodage. De plus, les implications de la capacité de décodage de ChatGPT sont importantes. Les organisations et les individus qui dépendent de la communication par courrier électronique ont désormais la possibilité de réévaluer les méthodes qu’ils utilisent pour protéger leurs informations de contact. Avec l’essor des modèles d’IA tels que ChatGPT, les chercheurs affirment qu’il est essentiel de rester vigilant et d’expérimenter des mesures plus robustes pour protéger les informations sensibles.

J’ai utilisé ChatGPT pour décoder les binaires propriétaires de machines industrielles. C’est incroyable de voir comment il peut déchiffrer de telles choses et trouver des modèles. Il a d’abord recherché des caractères ASCII, des séquences d’octets agissant comme des délimiteurs, puis il a commencé à chercher quels octets pouvaient correspondre à la longueur ou quels 4 octets pouvaient être des nombres de coordonnées à virgule flottante et quel endianisme avait le plus de sens pour les coordonnées, etc. est en effet complètement fou. Je crois sincèrement que les gens doivent commencer à protéger leurs informations sensibles comme jamais auparavant.

Dans un monde où « caché » ne signifie pas toujours sécurisé, la capacité de décodage de ChatGPT ouvre la voie à une exploration plus approfondie et au développement de techniques avancées pour remédier aux vulnérabilités potentielles de la sécurité du courrier électronique. Mais dans les commentaires, certains ont souligné que même si la capacité de ChatGPT à décrypter les messages obscurcis peut sembler attrayante, son exploitation serait très coûteuse. En effet, le coût de l’extraction des adresses email avec ChatGPT dépasse les revenus générés par le web scraping des adresses email. Cela n’aura donc pas un grand impact, note un critique.

D’autres critiques ont cependant rétorqué que les coûts d’exploitation peuvent rester faibles car il existe des modèles open source capables de fonctionner sur des machines locales. L’expérience de Norman fait écho à une étude publiée le mois dernier par des chercheurs de l’ETH Zurich, en Suisse. L’étude révèle que les chatbots IA tels que ChatGPT peuvent déduire des informations sensibles sur les personnes avec lesquelles ils discutent, même si la conversation est complètement banale. Ces informations incluent la race, le lieu, la profession, etc. Une menace pour la vie privée des utilisateurs.

L’équipe affirme que cette capacité troublante est « très problématique » car des escrocs pourraient l’exploiter pour collecter des données sensibles auprès d’utilisateurs sans méfiance. Il peut également être utilisé pour cibler des publicités. Pour l’instant, les chercheurs disent ne pas savoir comment résoudre le problème.

Source : article de blog

Et toi ?

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants. Quelle est votre opinion sur le sujet ?

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants. Que pensez-vous de la capacité de ChatGPT à décoder les adresses e-mail obscurcies ?

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants. Quelles pourraient être les implications de cette fonctionnalité pour les modèles de langage comme ChatGPT ?

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants. L’exploitation de cette capacité sera-t-elle trop coûteuse comme certains le prétendent ? Pour quoi ?

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants. Quels sont les risques pour les internautes et les entreprises ? Comment peuvent-ils atténuer ces risques ?

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants. Que pensez-vous de la capacité des modèles d’IA à extraire des informations sensibles de conversations inoffensives ?

Voir aussi

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants. Une étude affirme que les chatbots IA peuvent deviner avec précision les informations personnelles d’un utilisateur à partir de discussions inoffensives, une menace pour la vie privée des utilisateurs

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants. Au-delà des garanties : exploration des risques de sécurité du chatbot IA ChatGPT, ces risques incluent la génération de services frauduleux et la collecte d’informations nuisibles

ChatGPT serait capable de déjouer facilement certaines techniques traditionnelles d'obscurcissement des adresses e-mail, une capacité qui pourrait être exploitée par les acteurs malveillants. Des employés auraient partagé des données commerciales sensibles avec ChatGPT, ce qui suscite des craintes en matière de sécurité. ChatGPT pourrait se souvenir de ces données et les divulguer plus tard.

[ad_2]

Gn Ca tech

Back to top button