Développer la responsabilité est un élément clé pour rendre l’IA plus utile. Illustration : Bloomberg. |
L’IA générative change de nombreux domaines. Dans l’éducation, l’IA soutient l’apprentissage, détecte le plagiat et aide à l’enseignement. Dans le domaine médical, l’IA prend en charge le diagnostic par imagerie, la personnalisation des schémas thérapeutiques et la recherche de médicaments. Cet outil favorise également la création automatique de contenu, prend en charge le service client et crée des « KOL virtuels » dans les affaires et le marketing.
Outre les avantages qu’elle présente, la prolifération de l’IA générative soulève également des préoccupations éthiques, car cet outil peut amplifier les biais et diffuser de fausses informations. L’IA peut également compromettre la confidentialité, la sécurité des données et la stabilité de la main-d’œuvre.
À l’instar de nombreux pays à travers le monde, le Vietnam est en plein essor dans l’application de l’IA générative. Pour faire de l’IA un outil utile plutôt qu’un outil nuisible pour les humains, développer l’IA de manière responsable est l’une des tâches importantes.
Tendances de l'IA responsable
Le Dr Sam Goundar, maître de conférences en technologies de l'information au RMIT Vietnam, réitère certaines des controverses entourant l'éthique de l'IA générative. Du scandale pornographique de Taylor Swift à l'appel d'usurpation d'identité de l'ancien président américain Joe Biden, en passant par la fraude universitaire utilisant l'IA.
« Plus inquiétants sont les cas de chatbots incitant au suicide, créant du contenu pédopornographique, encourageant les assassinats, utilisant des algorithmes de recrutement biaisés ou exploitant des vulnérabilités de sécurité par l’IA.
« Ces problèmes soulignent la nécessité d’une approche centrée sur l’humain pour atténuer l’utilisation abusive de l’IA et protéger les intérêts individuels et sociétaux », a partagé le Dr Goundar.
Écran de l'outil Microsoft Copilot. Photo : Bloomberg. |
Selon le Dr Goundar, 2025 verra une tendance vers une IA responsable et centrée sur l’humain. Face aux préoccupations croissantes concernant les préjugés, la désinformation et les risques éthiques, la technologie d’IA transparente (XAI) est prioritaire, aidant les utilisateurs à comprendre comment l’IA prend des décisions.
Plusieurs pays tels que les États-Unis, le Canada, l’Australie, la Chine, le Japon, etc. ont commencé à adopter des réglementations sur l’IA pour gérer et garantir un déploiement éthique de l’IA dans l’ensemble du secteur.
Une autre tendance est l’IA hybride, un modèle qui combine l’IA et les humains, qui pourrait également se développer en 2025.
Dans le domaine du développement durable, l’IA peut contribuer à lutter contre le changement climatique et à promouvoir les technologies vertes. En outre, l’IA élargira ses applications en matière de cybersécurité, contribuant à améliorer la capacité d’analyse des risques et de réponse aux menaces dans l’espace numérique.
« Alors que l’adoption de l’IA s’accélère, il est essentiel de garantir une gouvernance responsable de l’IA pour optimiser les avantages de la technologie et réduire les risques potentiels », a souligné le Dr Goundar.
Solutions de développement d'IA responsables
Le Vietnam est l’un des pays qui innovent activement dans le domaine de l’IA. Il est donc important de garantir un développement éthique de l’IA afin d’éviter les algorithmes d’IA biaisés, les risques pour la vie privée et la perte de confiance du public.
Pour développer l’IA selon des principes éthiques, le Dr Goundar a proposé un certain nombre de solutions telles que l’investissement dans la recherche sur l’éthique de l’IA, la coopération avec les universités pour fournir un cadre juridique pour un déploiement responsable de l’IA.
Ensuite, il faut envisager d’intégrer l’éthique de l’IA dans les programmes universitaires, en élargissant les programmes de formation à l’IA pour les chefs d’entreprise, les enseignants et les décideurs politiques.
Promouvoir la responsabilité et l’éthique aide l’IA à devenir un outil utile pour les humains. Photo : Bloomberg. |
Il est également important de sensibiliser le public, afin d’aider les particuliers et les entreprises à comprendre l’impact de l’IA sur la vie privée. En outre, cela pourrait encourager l’application de l’IA à des fins sociales telles que les soins de santé, l’environnement et l’éducation, plutôt que de se concentrer uniquement sur le profit.
Outre l’éducation et la sensibilisation, les cadres juridiques jouent également un rôle important dans le maintien d’un développement responsable de l’IA.
Les experts du RMIT Vietnam ont proposé un certain nombre de solutions, telles que l'application de réglementations plus strictes sur l'IA, l'approche des modèles internationaux de gouvernance de l'IA, le lancement d'une certification éthique de l'IA, ainsi que la création d'un système de classification et d'audit des risques de l'IA pour évaluer et tester les systèmes à haut risque.
« Alors que le Vietnam vise à devenir une puissance régionale en matière d’IA d’ici 2030, son succès dépendra non seulement des progrès technologiques, mais également d’une réglementation solide, d’investissements éthiques dans l’IA et d’une sensibilisation du public pour lutter contre les risques potentiels », a souligné le Dr Goundar.
Source : https://znews.vn/xu-huong-ai-moi-cua-nam-2025-post1538816.html
Comment (0)