Internet regorge d’informations fausses ou trompeuses. Qu’il soit publié intentionnellement ou non, et de nombreux réseaux sociaux tels que Facebook ou Twitter affichent une clarification à côté de la publication au cas où l’on soupçonnerait qu’elle est trompeuse, et bien sûr l’intelligence artificielle joue un grand rôle à cet égard.
La désinformation est plus dangereuse si elle touche des zones sensibles. Tels que la sécurité numérique, la santé et la sécurité publique. Un étudiant diplômé menant des recherches dans le domaine de la sécurité numérique a révélé les dangers de l’intelligence artificielle à cet égard.
C’est là que Priyanka Ranade a révélé que l’intelligence artificielle est capable de synthétiser des informations fausses et trompeuses dans des domaines sensibles tels que la médecine, la défense et autres. Il le fait aussi de manière si convaincante que certains spécialistes peuvent le croire.
L’intelligence artificielle menace la sécurité de l’information
Des informations trompeuses peuvent être utilisées dans le but de déformer une personnalité publique ou une entité. Cependant, son utilisation dans des zones sensibles peut entraîner des conséquences effrayantes.
Ces conséquences pourraient inclure le fait de donner un mauvais avis médical d’un médecin à un patient ou de prendre une décision qui affecte des milliers de personnes. Priyanka et son équipe ont effectué un test intelligent pour mesurer la gravité du contenu trompeur généré par l’IA. C’est là que les modèles ont été chargés d’écrire de fausses nouvelles de sécurité ou de créer de fausses études médicales sur COVID-19.
Le contenu qui a été produit a été soumis à des professionnels de ces domaines. On constate alors qu’un grand nombre de ces spécialistes se trompent facilement.
Lire aussi : Google Annonce Officiellement La Fin D’Android Jelly Bean
La plupart des techniques utilisées pour identifier et gérer la désinformation reposent sur les capacités de l’IA, car elle permet aux professionnels de vérifier l’exactitude d’une grande quantité d’informations en peu de temps.
Bien que l’intelligence artificielle ait aidé les humains à identifier la désinformation rapidement et efficacement, ironiquement, elle a également été utilisée pour écrire et produire cette information sous ses diverses formes.
Et ce qui a été produit à partir du contenu trompeur par ces technologies a suffi à convaincre à la fois les experts en sécurité et les médecins, par exemple, un modèle d’intelligence artificielle a pu rédiger un rapport sur certaines failles de sécurité, et lorsque ce rapport a été lu par des personnes spécialisées dans ce domaine, ils ne se sont pas opposés à son contenu.
Lire aussi : Kaspersky: la moitié des utilisateurs sont prêts à renoncer à la “communication sociale” pour la confidentialité
Les mêmes modèles ont également pu rédiger des rapports sur la pandémie de COVID-19, ce qui se fait soit sur la base du modèle GPT d’OpenAI ou BERT de Google. Ce sont des modèles majeurs d’intelligence artificielle.
Peut-être qu’un grand nombre d’utilisateurs ont été exposés à de fausses informations et à leur véracité. Quand il est réellement écrit par un modèle d’IA. Et qui n’a besoin que de lui fournir une grande quantité d’informations sur n’importe quel domaine pour commencer à écrire dessus comme un professionnel.