Cybercriminalité: la machine imite votre voix Economie

SYNTHèSE VOCALE • Mettre au point une machine impossible à distinguer de l’être humain, c’était le rêve d’Alan Turing. A l’époque du cryptologue britannique, soit dans les années 1940, cette idée s’apparentait à une utopie. Aujourd’hui, il s’agit d’une réalité. Dernier cas en date, une entreprise britannique active dans le secteur énergétique s’est fait dérober 220’000 euros (235’000 francs) en tombant dans une arnaque d’un nouveau genre. En effet, l’un des employés a effectué ce virement sur un compte en Hongrie à la demande de son supérieur au téléphone. Problème, le supérieur ne l’a jamais appelé car il s’agissait d’une voix synthétique imitant celle de son patron. Une arnaque rendue possible par la technologie du deep learning qui permet à un ordinateur d’apprendre et d’imiter la voix de quelqu’un.

S’il reste encore suffisamment rare, ce type d’escroquerie est amené à se développer ces prochaines années. Et c’est effrayant car le traitement de la parole est quotidiennement utilisé par l’intelligence artificielle. Il suffit de penser à nos smartphones, aux assistants vocaux ou aux systèmes de traduction automatique. Demain, les voitures autonomes pourront également être guidées uniquement par la voix. Nul besoin d’être savant pour imaginer le danger représenté par cette nouvelle cybercriminalité qui utilise la voix de ceux qu’elle attaque.

Google se veut néanmoins rassurant. La société de Mountain View a affirmé que Google AI et News Initiative se sont associés pour créer un ensemble de discours en synthèse vocale avec des milliers de phrases prononcées par les modèles d’apprentissage profonds. Concrètement, la firme entend lutter contre les deepfakes audio. Le problème est que le deep learning permettant de détecter les fakes audio permet également d’améliorer ce même deep learning pour générer de meilleurs fakes audio. Pas très rassurant…