🎁 💸 Cadeau gratuit ! Copiez sur votre watchlist le portefeuille de Warren Buffett qui a gagné +49.1% Copier Actions

Deepfake : la société britannique Arup est la proie d’une arnaque à 25 millions de dollars, comment se protéger ?

Publié le 17/05/2024 11:09
Deepfake : la société britannique Arup est la proie d’une arnaque à 25 millions de dollars, comment se protéger ?

La société multinationale britannique de conception et d’ingénierie Arup, réputée pour ses bâtiments emblématiques comme l’Opéra de Sydney, a confirmé qu’elle était la cible d’une arnaque deepfake.

Cette fraude sophistiquée a amené l’un de ses employés de Hong Kong à transférer 25 millions de dollars à des fraudeurs.

Quelle était la fraude ?

Arup a informé la police de Hong Kong de l’incident en janvier, confirmant que de fausses voix et images avaient été utilisées.

L’arnaque impliquait un employé financier qui avait été amené à assister à un appel vidéo avec des personnes qu’il croyait être le directeur financier et d’autres membres du personnel, qui étaient tous des recréations deepfake.

Malgré les premières suspicions d’un email de phishing, l’apparence réaliste et les voix de ses supposés collègues ont conduit l’employé à procéder à des transactions, totalisant 200 millions de dollars de Hong Kong (25,6 millions de dollars) répartis en 15 transferts.

Menace croissante de la fausse technologie

L’incident souligne la sophistication croissante de la technologie des deepfakes.

Rob Greig, directeur mondial de l’information d’Arup, a déclaré :

“Comme beaucoup d’autres entreprises dans le monde, nos opérations sont régulièrement soumises à des attaques, notamment des fraudes sur factures, des escroqueries par phishing, l’usurpation de la voix WhatsApp et des deepfakes.”

Le nombre et la sophistication de ces attaques ont fortement augmenté, posant des défis importants aux entreprises du monde entier.

Préoccupation mondiale et réponse interne

Les autorités du monde entier sont de plus en plus préoccupées par les utilisations malveillantes de la technologie deepfake.

Dans une note interne, Michael Kwok, président régional d’Arup pour l’Asie de l’Est, a souligné la fréquence et la sophistication croissantes de ces attaques, exhortant les employés à rester informés et vigilants pour repérer les différentes techniques d’escroquerie.

Résilience opérationnelle et enquête en cours

Malgré la perte financière importante, Arup a assuré que sa stabilité financière et ses opérations commerciales n’étaient pas affectées et qu’aucun de ses systèmes internes n’était compromis. L’entreprise continue de travailler avec les autorités et l’enquête se poursuit.

Cet incident très médiatisé met en évidence la nécessité urgente pour les entreprises de renforcer leurs mesures de cybersécurité afin de lutter contre la menace croissante des technologies deepfake et d’autres escroqueries sophistiquées.

Qu’est-ce qu’un deepfake ?

Un deepfake est un contenu généré à l’aide de techniques d’apprentissage profond qui semble réel mais qui est fabriqué. L’intelligence artificielle ( IA ) utilisée pour créer des deepfakes utilise généralement des modèles génératifs, tels que les réseaux contradictoires génératifs (GAN) ou les encodeurs automatiques.

Les deepfakes peuvent être des vidéos, des enregistrements audio ou des images représentant des individus ou des groupes faisant ou disant des choses qu’ils n’ont jamais faites.

Pour produire du contenu convaincant, l’IA doit s’entraîner sur de grands ensembles de données pour reconnaître et reproduire des modèles naturels.

La technologie Deepfake, bien qu’innovante, ouvre des opportunités dangereuses d’utilisation illégale, notamment le vol d’identité, la falsification de preuves, la désinformation, la calomnie et le contournement de la sécurité biométrique.

Les fraudeurs exploitent souvent l’autorité de la personne représentée ou ses liens personnels avec leurs cibles.

Types de deepfakes

Les deepfakes peuvent produire du contenu vidéo, audio ou image, utilisé comme support enregistré ou dans des flux en temps réel. Ces formats peuvent être rencontrés dans divers scénarios, des publications sur les réseaux sociaux aux appels téléphoniques et vidéoconférences.

Échange de visage : Cette application remplace les traits du visage d’une personne cible par de faux traits, souvent ceux d’une autre personne.

Des techniques telles que la détection et la manipulation des repères faciaux rendent le mélange homogène et difficile à repérer lorsqu’on est pris par surprise.

Clonage vocal : Cette technique reproduit la voix d’un individu. Des données audio de haute qualité provenant d’enregistrements de la personne cible parlant dans divers contextes sont nécessaires pour former un modèle de clonage vocal.

Deepfakes vidéo en temps réel

Les deepfakes vidéo en temps réel génèrent instantanément du contenu vidéo manipulé pendant les diffusions en direct et les appels vidéo.

Le clonage vocal et l’échange de visages sont fréquemment utilisés pour créer un faux environnement convaincant. Les logiciels de génération de Deepfake peuvent s’intégrer aux plateformes de streaming et aux outils de vidéoconférence de plusieurs manières :

Une application distincte capture, traite et envoie le flux vidéo manipulé au logiciel de conférence.

Intégration directe dans un logiciel de visioconférence en tant que fonctionnalité ou plugin optionnel.

Utiliser une caméra virtuelle pour intercepter le flux vidéo de la caméra physique et produire le flux manipulé.

Comment se protéger contre les deepfakes ?

À mesure que la technologie des deepfakes progresse, il est crucial de vous protéger, vous et votre organisation, contre la fraude. Voici quelques moyens de vous protéger contre les deepfakes :

Méfiez-vous des signaux d’alarme : recherchez des expressions faciales ou des mouvements irréalistes, des incohérences dans l’éclairage et les ombres, des mouvements de tête ou du corps non naturels et une qualité audio et vidéo inadaptée.

Soyez proactif en cas de suspicion : engagez une conversation informelle pour prendre un fraudeur au dépourvu. Demandez à la personne de partager son écran ou de confirmer son identité en fournissant des informations exclusives ou en envoyant un message de confirmation via un autre canal.

Configurer une phrase secrète : établissez un mot de passe ou une phrase secrète pour les sujets sensibles avec vos collègues et les membres de votre famille. Cette méthode est efficace dans la communication vocale, vidéo et textuelle.

La technologie Deepfake présente des risques importants qui nécessitent de la vigilance et des mesures proactives pour les atténuer.

En comprenant les types de deepfakes et en mettant en œuvre des stratégies pour les identifier et les contrecarrer, les individus et les organisations peuvent mieux se protéger contre les fraudes potentielles.

Alors que l’IA générative continue de se développer, rester informé et préparé est crucial pour se prémunir contre la menace croissante des deepfakes.

Cet article est apparu en premier sur Invezz.com France

Derniers commentaires

Installez nos applications
Divulgation des risques: Négocier des instruments financiers et/ou des crypto-monnaies implique des risques élevés, notamment le risque de perdre tout ou partie de votre investissement, et cela pourrait ne pas convenir à tous les investisseurs. Les prix des crypto-monnaies sont extrêmement volatils et peuvent être affectés par des facteurs externes tels que des événements financiers, réglementaires ou politiques. La négociation sur marge augmente les risques financiers.
Avant de décider de négocier des instruments financiers ou des crypto-monnaies, vous devez être pleinement informé des risques et des frais associés aux transactions sur les marchés financiers, examiner attentivement vos objectifs de placement, votre niveau d'expérience et votre tolérance pour le risque, et faire appel à des professionnels si nécessaire.
Fusion Media tient à vous rappeler que les données contenues sur ce site Web ne sont pas nécessairement en temps réel ni précises. Les données et les prix sur affichés sur le site Web ne sont pas nécessairement fournis par un marché ou une bourse, mais peuvent être fournis par des teneurs de marché. Par conséquent, les prix peuvent ne pas être exacts et peuvent différer des prix réels sur un marché donné, ce qui signifie que les prix sont indicatifs et non appropriés à des fins de trading. Fusion Media et les fournisseurs de données contenues sur ce site Web ne sauraient être tenus responsables des pertes ou des dommages résultant de vos transactions ou de votre confiance dans les informations contenues sur ce site.
Il est interdit d'utiliser, de stocker, de reproduire, d'afficher, de modifier, de transmettre ou de distribuer les données de ce site Web sans l'autorisation écrite préalable de Fusion Media et/ou du fournisseur de données. Tous les droits de propriété intellectuelle sont réservés par les fournisseurs et/ou la plateforme d’échange fournissant les données contenues sur ce site.
Fusion Media peut être rémunéré par les annonceurs qui apparaissent sur le site Web, en fonction de votre interaction avec les annonces ou les annonceurs.
La version anglaise de ce document est celle qui s'impose et qui prévaudra en cas de différence entre la version anglaise et la version française.
© 2007-2024 - Fusion Media Ltd Tous droits réservés