Solutions
&
techno

IA/IAG : un outil de cyber-attaques comme de cybersécurité

Par Bertrand Lemaire | Le | Cybersécurité

Selon une étude du Capgemini Research Institute, les entreprises sont conscientes des possibilités de l’IA autant en cybersécurité qu’en cyber-attaque.

L’IA peut être autant amie qu’ennemie. - © Wolf / Pixabay
L’IA peut être autant amie qu’ennemie. - © Wolf / Pixabay

Il est désormais bien connu que les cybercriminels utilisent l’IA et même l’IAG pour créer des cyber-attaques. De la même façon, l’IA est utilisée depuis longtemps déjà pour aider la cybersécurité. Une étude du Capgemini Research Institute vient pointer la prise de conscience par les entreprises de ces faits et les conséquences induites.

Les auteurs rappellent ainsi que « l’IA générative présente trois risques majeurs pour les organisations : des attaques plus sophistiquées impliquant davantage de protagonistes, une extension de la surface de cyber-attaque, et une augmentation des vulnérabilités dans l’ensemble du cycle de vie des solutions d’IA générative. » De la même façon, « l’utilisation inappropriée de l’IA et de l’IA générative par les employés peut également accroître considérablement le risque de fuite de données. » C’est notamment le cas lorsque des collaborateurs soumettent des données sensibles à des outils publics tels que ChatGPT.

IAG et Deepfake  : de la science-fiction aux escroqueries

Le premier Club CISO de 2025 sera sur le thème : « IAG et Deepfake  : de la science-fiction aux escroqueries, comment se prémunir ? ». Il aura lieu le jeudi 9 janvier 2025 de 19 :30 à 22 :00, avec, en grand témoin, le Général Patrick Perrot, Coordonnateur pour l’intelligence artificielle, Conseiller IA auprès du ComcyberMI au Ministère de l’Intérieur.

Information et inscription.

IA : de l’attaque à la défense

97 % des entreprises ont été confrontées à de telles fuites de données sensibles depuis un an selon l’étude. Et 67 % s’inquiètent au sujet des données d’entraînement, qu’elles intègrent des éléments confidentiels ou soient « empoisonnées » afin de délivrer des hallucinations. 43 % estiment avoir subi des pertes suite à une attaque par deepfake, même si le niveau de sophistication est en général inférieur au cas de Hong-Kong.

60 % des entreprises utilisant l’IA pour leur cybersécurité affirment avoir un délai de détection réduit d’au moins 5 % et 40 % ont un délai de remédiation réduit également d’au moins 5 %. De ce fait, 61 % considèrent l’IA comme critique pour répondre efficacement aux menaces.

A propos de l’étude

L’étude « New defenses, new threats : What AI and Gen AI bring to cybersecurity » (« Nouvelles défenses, nouvelles menaces : ce que l’IA et l’IA générative apportent à la cybersécurité ») a été réalisée par le Capgemini Research Institute. Elle est basée sur une enquête menée auprès de 1 000 organisations qui ont envisagé l’IA pour la cybersécurité ou qui l’utilisent déjà, dans 12 secteurs et 13 pays d’Asie-Pacifique, d’Europe et d’Amérique du Nord, et ayant un chiffre d’affaires annuel d’au moins 1 milliard de dollars et appartenant à de nombreux secteurs d’activité. L’enquête mondiale s’est déroulée en mai 2024.