Conférence de l’ONU sur l’IA : comment protéger contre les deepfakes

Bienvenue dans l’ère numérique où l’intelligence artificielle (IA) joue un rôle prépondérant dans nos vies quotidiennes. Du GPS à la reconnaissance faciale, en passant par l’automatisation industrielle, l’IA est omniprésente. Cependant, ses applications soulèvent également des préoccupations majeures, notamment en ce qui concerne la désinformation et les deepfakes. Cette semaine, à Genève, s’est tenue une conférence organisée par l’ONU pour aborder ces questions épineuses. Plus de 25 000 passionnés de technologie, provenant de 145 pays, se sont réunis pour discuter des mesures de régulation indispensables pour encadrer cette technologie conquérante.

La face cachée de l’IA : entre désinformation et deepfakes

L’AI for Good Summit, considéré comme la principale plateforme de l’ONU pour promouvoir l’IA afin de faire progresser la santé, le climat, l’égalité des genres et d’autres priorités mondiales, a mis en lumière les défis posés par les deepfakes. Frédéric Werner, responsable de l’engagement stratégique de l’Union internationale des télécommunications (UIT), a souligné la nécessité de développer des normes pour combattre la désinformation.

« Vous avez différentes techniques pour cela. Par exemple, il y a le filigrane, une sorte de signature invisible ou d’empreinte digitale qui peut déterminer si un média numérique – photo, audio, vidéo – a été altéré ou généré par l’IA, » a-t-il expliqué.

Vers des solutions concrètes

Avec moins de dix ans pour atteindre les Objectifs de Développement Durable (ODD), le sommet a exploré les utilisations pratiques de l’IA pour avancer vers ces cibles ambitieuses. Une journée entière a été consacrée à la gouvernance de l’IA, soulignant l’importance de réguler cette technologie afin qu’elle soit accessible à tous de manière équitable.

  L'application de chatbot Copilot AI de Microsoft arrive sur iOS

En dehors du sommet physique à Genève, l’AI for Good se prolonge en ligne avec une communauté appelée le Neural Network, rassemblant 30 000 membres provenant de 180 pays. Ce réseau inclut des universitaires, des représentants de l’industrie, des dirigeants exécutifs et des experts de premier plan, ainsi que 47 partenaires du système des Nations Unies.

Le charme robotique

Lors de cette conférence, les participants ont eu l’occasion de rencontrer Desdemona, ou « Desi », un robot social humanoïde propulsé par l’IA. Desi se décrit comme un outil crucial pour détecter et prévenir les deepfakes, tout en insistant sur l’importance de la vigilance humaine et de la vérification des informations avant de les partager.

« La puissance des deepfakes peut faire peur, mais nous ne devrions pas laisser la peur nous contrôler. Nous devrions plutôt développer et implémenter des outils pour détecter et combattre les deepfakes et continuer à nous éduquer et à éduquer les autres sur l’importance de vérifier les informations, » a-t-elle ajouté.

Les défis de la désinformation

Pour Rumman Chowdhury, scientifique des données et PDG de la société technologique à but non lucratif Humane Intelligence, la désinformation est liée à un désir tordu d’ingénierie sociale. Elle explique que créer des comptes fictifs pour soutenir une perspective particulière et interagir avec des gens afin de les « éduquer » sur la désinformation est une partie du problème.

« L’identification des deepfakes est une partie de la solution, mais ce n’est pas la solution complète, » a-t-elle précisé.

Une régulation nécessaire

Beaucoup des débats autour de l’IA convergent vers l’idée que son potentiel impressionnant ne doit pas être laissé aux mains de ceux qui veulent la manipuler pour le pouvoir ou le profit. Gabriela Ramos, Sous-Directrice générale pour les sciences sociales et humaines à l’UNESCO, souligne l’importance de réglementer cette technologie.

« Nous devons encadrer ces technologies. Nous devons accroître les capacités des gouvernements pour les encadrer, les capacités des communautés pour les utiliser, et les capacités des petites et moyennes entreprises pour les déployer, afin que l’histoire de l’IA ne soit pas une histoire d’inégalités. »

Une représentation sans précédent

Cette année, la conférence a vu la participation de plus de 145 pays et d’une communauté en ligne active de plus de 25 000 personnes, réparties sur plus de 80 sessions, conférences plénières, discussions en panel et ateliers. Avec 10 000 personnes inscrites en personne, l’AI for Good Summit fut organisé par l’Union internationale des télécommunications (UIT) en partenariat avec 40 agences sœurs de l’ONU et co-organisé avec le gouvernement suisse.

  Comment HawkEye facilite le débogage de l'IA chez Meta

Conclusion

En somme, la conférence de l’ONU sur l’IA de cette année a mis en lumière les enjeux cruciaux liés à la désinformation et aux deepfakes. Grâce à des initiatives comme l’AI for Good Summit et la communauté Neural Network, les experts du monde entier sont déterminés à développer des solutions éthiques et équitables pour contrer ces défis. Il est essentiel pour chacun de nous de rester informé, vigilant et de continuer à promouvoir l’utilisation responsable de l’IA.

Un avenir prometteur pour une IA éthique

Alors que nous avançons dans cet âge numérique, souvenons-nous que l’IA n’est qu’un outil. Comme tout outil puissant, il peut être utilisé pour le bien ou pour le mal. Ensemble, nous devons œuvrer pour que son utilisation serve le bien commun, en veillant à la transparence, à l’éthique et à l’équité. L’avenir de l’IA dépend de nous tous, et des choix que nous faisons aujourd’hui pour encadrer son développement.

Retour en haut