Définition : Qu'est-ce que l'intelligence artificielle ?

  • L'intelligence artificielle (IA) utilise des données, des algorithmes, du matériel et la connectivité pour imiter des aspects de l'intelligence humaine tels que la perception, la résolution de problèmes et l'interaction linguistique.

  • L'IA facilite la mise en œuvre du Programme de développement durable à l'horizon 2030, par exemple en améliorant l'éducation dans les zones défavorisées.

Définition :

Qu'est-ce que l'IA générative ?

  • L'IA générative est un type d'intelligence artificielle entraînée sur des données pour créer un contenu entièrement nouveau. Elle identifie des schémas dans les données pour produire des résultats originaux reflétant l'imagination humaine.

  • Synthétiser les réponses des participants pour donner une définition complète et accessible de l'IA.

Attention : Principales limitations éthiques de l'IA générative dans l'administration

Limitation éthique

Enjeux concrets pour l’administration

Risques si rien n’est mis en place

Sources

1. Biais et discrimination

Les modèles appris sur des données historiques reproduisent – voire amplifient – les inégalités : attribution de bourses, contrôle fiscal ou affectation scolaire.

Décisions inéquitables, contentieux, perte de confiance des citoyens.

(smartdev.com, lemonde.fr)

2. Manque de transparence (« boîte noire »)

Impossible d’expliquer à un usager pourquoi son dossier a été rejeté ; difficulté à justifier une décision devant le juge administratif.

Atteinte au droit à l’explication (RGPD art. 22), opacité des critères de décision.

(sorbonne.tv, cnil.fr)

3. Fiabilité limitée / hallucinations

Les LLM peuvent « inventer » des références juridiques ou chiffrer des montants erronés dans un courrier officiel.

Diffusion d’informations fausses, erreurs administratives, réputation entachée.

(cnil.fr, lemonde.fr)

4. Données personnelles & vie privée

Les prompts ou logs peuvent contenir des données sensibles ; certains fournisseurs réutilisent les requêtes pour ré-entraîner leurs modèles.

Violation du RGPD, fuite de données santé, sociales ou fiscales.

(cnil.fr)

5. Sécurité : prompt-injection & attaques

Un agent conversationnel intégré à un SIRH peut être amené, via un prompt malveillant, à divulguer ou modifier des dossiers.

Exfiltration d’informations, sabotage de procédures, compromission de SI critiques.

(ibm.com, genai.owasp.org)

6. Responsabilité & contrôle humain

Qui signe la décision ? L’agent qui a validé ? Le fournisseur du LLM ?

Dilution des responsabilités, difficulté à engager la faute, risques contentieux.

(lemonde.fr)

7. Propriété intellectuelle

Les modèles peuvent générer des textes ou images protégés sans citer la source ; incertitude sur la titularité des droits du contenu produit.

Litiges en droit d’auteur, blocage de publications administratives.

(sorbonne.tv)

8. Dépendance technologique & souveraineté

Forte dépendance à des plateformes extra-européennes ; difficulté à garantir la localisation et la réversibilité des données.

Risque de verrouillage (« vendor lock-in »), exposition au droit étranger.

(cnil.fr)

9. Empreinte environnementale

Les modèles « fondation » consomment des quantités d’énergie et d’eau significatives.

Incohérence avec les engagements RSE et les objectifs de réduction carbone de l’État.

(sorbonne.tv)