Définition : Qu'est-ce que l'intelligence artificielle ?
L'intelligence artificielle (IA) utilise des données, des algorithmes, du matériel et la connectivité pour imiter des aspects de l'intelligence humaine tels que la perception, la résolution de problèmes et l'interaction linguistique.
L'IA facilite la mise en œuvre du Programme de développement durable à l'horizon 2030, par exemple en améliorant l'éducation dans les zones défavorisées.
Définition :
Qu'est-ce que l'IA générative ?
L'IA générative est un type d'intelligence artificielle entraînée sur des données pour créer un contenu entièrement nouveau. Elle identifie des schémas dans les données pour produire des résultats originaux reflétant l'imagination humaine.
Synthétiser les réponses des participants pour donner une définition complète et accessible de l'IA.
Attention : Principales limitations éthiques de l'IA générative dans l'administration
Limitation éthique | Enjeux concrets pour l’administration | Risques si rien n’est mis en place | Sources |
|---|---|---|---|
1. Biais et discrimination | Les modèles appris sur des données historiques reproduisent – voire amplifient – les inégalités : attribution de bourses, contrôle fiscal ou affectation scolaire. | Décisions inéquitables, contentieux, perte de confiance des citoyens. | |
2. Manque de transparence (« boîte noire ») | Impossible d’expliquer à un usager pourquoi son dossier a été rejeté ; difficulté à justifier une décision devant le juge administratif. | Atteinte au droit à l’explication (RGPD art. 22), opacité des critères de décision. | |
3. Fiabilité limitée / hallucinations | Les LLM peuvent « inventer » des références juridiques ou chiffrer des montants erronés dans un courrier officiel. | Diffusion d’informations fausses, erreurs administratives, réputation entachée. | |
4. Données personnelles & vie privée | Les prompts ou logs peuvent contenir des données sensibles ; certains fournisseurs réutilisent les requêtes pour ré-entraîner leurs modèles. | Violation du RGPD, fuite de données santé, sociales ou fiscales. | (cnil.fr) |
5. Sécurité : prompt-injection & attaques | Un agent conversationnel intégré à un SIRH peut être amené, via un prompt malveillant, à divulguer ou modifier des dossiers. | Exfiltration d’informations, sabotage de procédures, compromission de SI critiques. | |
6. Responsabilité & contrôle humain | Qui signe la décision ? L’agent qui a validé ? Le fournisseur du LLM ? | Dilution des responsabilités, difficulté à engager la faute, risques contentieux. | |
7. Propriété intellectuelle | Les modèles peuvent générer des textes ou images protégés sans citer la source ; incertitude sur la titularité des droits du contenu produit. | Litiges en droit d’auteur, blocage de publications administratives. | |
8. Dépendance technologique & souveraineté | Forte dépendance à des plateformes extra-européennes ; difficulté à garantir la localisation et la réversibilité des données. | Risque de verrouillage (« vendor lock-in »), exposition au droit étranger. | (cnil.fr) |
9. Empreinte environnementale | Les modèles « fondation » consomment des quantités d’énergie et d’eau significatives. | Incohérence avec les engagements RSE et les objectifs de réduction carbone de l’État. |