Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
Politique

MapleSEC : Comment les professionnels de la sécurité de l’information peuvent sécuriser leurs organisations pour l’IA

[ad_1]

Les applications d’intelligence artificielle sont une arme à double tranchant : elles peuvent être utilisées par les employés pour améliorer la productivité et créer de meilleurs produits et services, et elles peuvent être utilisées par des attaquants pour saper une organisation.

Ce que les professionnels de la sécurité de l’information doivent faire, c’est préparer leurs organisations dès maintenant, a déclaré John Engates, directeur de la technologie sur le terrain chez Cloudflare, lors d’une session de Le monde informatique du Canada Présentations MapleSEC la semaine dernière.

« Ce qui me préoccupe le plus, c’est que, même s’il existe des mécanismes de sécurité fiables dans les outils commerciaux (comme ChatGPT), le côté open source se prête aux attaquants qui les utilisent d’une manière qui n’a jamais été prévue », a-t-il déclaré. « Il n’y a ni garde-fou, ni surveillance.

« Alors ne pensez pas que ce n’est pas parce que ChatGPT ne vous permet pas de l’utiliser à des fins de piratage que les attaquants n’ont pas cette capacité » grâce aux outils d’IA générative qu’ils créent.

Les chercheurs en sécurité notent que les acteurs de la menace disposent déjà d’outils d’IA tels que FraudGPT, WormGPT et DarkBART, qui est une version du produit d’IA générative de Google, Bard.

Les organisations de défense ont besoin d’outils tels que des logiciels de prévention des pertes de données capables de détecter les abus de l’IA, ainsi que d’outils qui surveillent les interfaces de programmation d’applications (API), car les données les traversent. L’utilisation accrue de l’authentification multifacteur (MFA) est également essentielle pour protéger les connexions au cas où un employé serait trompé par une attaque de phishing générée par l’IA.

Mais la formation des employés est également importante. Engates a proposé ces conseils aux professionnels de la sécurité de l’information pour protéger leurs organisations contre les victimes de l’utilisation de l’IA :

dites aux employés comment utiliser les applications d’IA en toute sécurité.

« Je recommanderais fortement si vous avez des projets de formation de sensibilisation à la sécurité cette année – ce que la plupart d’entre vous devraient – d’intégrer un petit module d’IA dont vous avez également besoin pour suivre une formation en IA ; »

cette formation devrait inclure – dans le cadre de l’encouragement habituel du personnel à signaler les activités suspectes comme les attaques de phishing – les erreurs qu’ils ont pu commettre en utilisant les outils d’IA.

« Vous voulez qu’ils puissent en parler en toute sécurité afin qu’ils n’aient pas l’impression qu’ils se cachent du patron. »

encouragez-les à utiliser l’IA, mais de manière responsable. N’oubliez pas que l’IA peut être un différenciateur pour votre entreprise. « Si vous ne l’expérimentez pas maintenant, vous vous enfouissez la tête dans le sable. » Vous voulez que les employés adoptent l’IA et montrent la voie ;

Aidez-nous à créer une politique dans votre organisation pour une utilisation responsable de l’IA. Un scan par Monde informatique Canada de telles politiques répertoriées par les entreprises sur Internet montrent qu’elles peuvent inclure les cas dans lesquels l’IA ne peut pas être utilisée, quelles données ne peuvent pas être utilisées dans un modèle d’IA ouvert, insistant sur le fait que c’est un humain qui prend les décisions finales lorsque les systèmes de prise de décision automatisés impliquent des aspects juridiques. les implications et les conséquences de la violation de la politique.

Demandez conseil à vos fournisseurs, à vos gouvernements et à vos cyberagences, comme la Cybersecurity and Infrastructure Security Agency (CISA) des États-Unis, pour créer une politique d’utilisation acceptable de l’IA, a déclaré Engates.

Le gouvernement canadien, par exemple, a transmis ces cinq principes directeurs aux ministères fédéraux :

Pour garantir l’utilisation efficace et éthique de l’IA, le gouvernement :

— comprendre et mesurer l’impact de l’utilisation de l’IA en développant et en partageant des outils et des approches;

— faire preuve de transparence quant à la manière et au moment où nous utilisons l’IA, en commençant par un besoin clair des utilisateurs et un intérêt public ;

— fournir des explications significatives sur la prise de décision en matière d’IA, tout en offrant également la possibilité d’examiner les résultats et de contester ces décisions ;

— être aussi ouvert que possible en partageant le code source, les données de formation et d’autres informations pertinentes, tout en protégeant les informations personnelles, l’intégration des systèmes, ainsi que la sécurité et la défense nationales ;

— fournir une formation suffisante pour que les employés du gouvernement qui développent et utilisent des solutions d’IA possèdent les compétences responsables en matière de conception, de fonctionnement et de mise en œuvre nécessaires pour améliorer les services publics basés sur l’IA.

Vous pouvez voir l’intégralité de la session d’Engates ici.

[ad_2]

En polices

Back to top button