il y a 4 semaines -  - 3 minutes

DarkGPT, LLM non-censurés : L’IA est-elle une potion ou un poison pour la cybersécurité ?

Avec l’avènement de l’utilisation de l’intelligence artificielle générative, les professionnels de la cybersécurité s’interrogent quant aux bénéfices et inconvénients de la technologie. Face à l’usage d’outils tels que DarkGPT, les experts, réunis au sein du Numeum Camp dressent un panorama complet.

L’intelligence artificielle représente t-elle une potion ou un poison en matière de management des risques cyber. Une question centrale posée par Numeum lors d’un Numeum Camp dédié au sujet. Le fruit de la rencontre d’experts du sujet se présente sous la forme d’un livrable captivant présentant les deux aspects du sujet.

En effet, l’émergence de l’intelligence artificielle, qu’elle soit générative ou non, soulève des questions légitimes quant à aux conséquences qu’emporte son utilisation sur la cybersécurité des entreprises. La technologie constitue tout aussi bien une menace en termes stratégiques, défensifs et de gestion des données qu’une opportunité sous la forme de leviers de croissance ou d’opportunités de sensibiliser et d’accompagner le public.

cyber assurance Tech Talks Anssi Cyber for Good FIC Guide cybersécurité 2023 Cybersécurité Techtalks Numeum vol d'identité DarkGPT
DarkGPT, LLM non-censurés : L’IA est-elle une potion ou un poison pour la cybersécurité ?

De cette réflexion naît naturellement un double constat légitimant l’existence de ce livrable. L’intelligence artificielle et son utilisation désormais répandue comporte, de fait, non seulement des opportunités mais également des menaces pour toute organisation professionnelle. 

Management des risques de cybersécurité : les risques et menaces liés au déploiement de l’IA

Principal enjeu lié au déploiement et à l’utilisation démocratisée de l’intelligence artificielle, en particulier générative, la généralisation des attaques et l’augmentation de la volumétrie de ces dernières sont des préoccupations majeures. L’apport de la technologie va rendre ces attaques plus simples et plus rapides. On risque donc d’assister à une croissance exponentielle des attaques face à des défenseurs parfois pas en mesure de suivre cette cadence.

En corollaire, concernant les LLM non censurés, des scénarios d’attaque particulièrement malins peuvent être mis sur pied moyennant une forte motorisation et une vitesse de calcul conséquente. A terme, il est donc possible d’imaginer l’émergence d’un botnet capable d’alimenter ce LLM. Des services similaires à un “DarkGPT” pourraient alors prendre de l’ampleur.

Pour qu’elle puisse être utilisée en toute sérénité, une technologie doit pouvoir susciter la confiance auprès de ceux qui l’utilisent. Le sujet du numérique de confiance est donc clé dans la mesure où il s’avère double. Il recouvre non seulement en premier lieu la confiance que l’on accorde à l’intelligence artificielle et aux résultats qu’elle fournit mais également la manière dont cette dernière peut expliciter les fruits qu’elle produit.

Management des risques de cybersécurité : les opportunités que permet l’IA

Si l’intelligence artificielle représente une menace pour les organisations, elle se présente également comme une formidable opportunité. En ce sens, l’arrivée de la technologie emporte un volet relatif à l’éducation de chacun pour le moins conséquent. Il convient donc de faciliter la compréhension des outils de management de la cybersécurité.

Photo de Jess Bailey sur Unsplash intelligence générative propriété intellectuelle TechTalks Numeum
DarkGPT, LLM non-censurés : L’IA est-elle une potion ou un poison pour la cybersécurité ?

Pour y parvenir, le remède est, sans conteste, celui de la sensibilisation en augmentant notamment le parcours pédagogique des utilisateurs. Des questionnaires peuvent ainsi retracer plusieurs points consécutifs à l’usage de la technologie. Il peut s’agir de l’utilisation de la base de connaissance, du temps d’exposition, du niveau de criticité des éléments utilisés…

Favoriser l’acculturation

L’idée est donc de favoriser l’acculturation en formant les utilisateurs en continu par des moyens simples (comme la gamification par exemple). Ces derniers doivent ainsi être sensibilisés aux enjeux relatifs à la technologie. Pour y parvenir, un leadership fort doit être instauré dans l’entreprise ou auprès des clients concernés. Par exemple, un e-mail douteux doit automatiquement créer un état d’alerte chez le possesseur d’une boîte électronique. 

Autre volet capital, l’essor de l’IA constitue une formidable opportunité de développer un usage éthique de cette dernière (éventuellement via l’open source). Les données produites doivent ainsi être utilisées à des fins non néfastes sans utiliser de données personnelles non autorisées. L’objectif serait alors de bâtir une éthique mondialisée (à l’image de la bioéthique), un cadre général, une norme globale en quelque sorte.

Olivier Robillart