Aller au contenu principal Skip to page footer

IA ET TRAVAIL

L'Homme-flux, l'Homme flou, l'Homme fou

MANAGEMENT ALGORITHMIQUE ET RISQUES PSYCHO-SOCIAUX
SURVEILLANCE ALGORITHMIQUE ET VIE PRIVÉE
DIALOGUE SOCIAL ET ACCEPTABILITÉ
SHADOW AI ET PRÉVENTION DES RISQUES
INTERFACE HOMME-MACHINE
AGENTIQUE IA, EMPLOI ET TRAVAILLEURS DU CLIC
PRODUCTIVITÉ ET PARTAGE DE LA VALEUR

IA ET DROITS HUMAINS

Reprendre le contrôle

DEEPFAKE, VÉRITÉ ET DÉMOCRATIE
BIAIS ALGORITHMIQUES ET DISCRIMINATIONS
INTÉGRITÉ COGNITIVE ET NEURODROITS
IA ET ÉDUCATION
IA ET CRÉATION
IA ET IMPACT ENVIRONNEMENTAL
TRANSPARENCE, EXPLICABILITÉ ET RESPONSABILITÉ

IA ET CYBERSÉCURITÉ

Les cygnes noirs de l'imprévisible

CYBERRISQUES
UTILISATION MALVEILLANTE DE L'IA
FUITE DE DONNÉES SENSIBLES
CONFORMITÉ RGPD/ NIS 2/ DORA/ CRA/ LPM/ RIA
GOUVERNANCE
ALGORITHMES DE DÉTECTION ET SUPERVISION HUMAINE
IA ET SOUVERAINETÉ

NOS ACTIONS

ACCOMPAGNER
LES PROJETS D’IA

Analyses de risques (DPIA, FRIA), chartes IA, dialogue social technologique, comités d’éthique, bacs à sable et soutien aux PME et aux jeunes pousses

En savoir plus

ENCOURAGER LA RECHERCHE ET L’INNOVATION

Mise en valeur de la communauté scientifique autour de l’IA de confiance, mise en avant de projets d’IA français et expérimentations internes au Lab IA (chatbots, guides et référentiels)  

En savoir plus

SENSIBILISER POUR UN NUMÉRIQUE CHOISI

Ateliers, webinaires et formations en partenariat avec l’organisme de formation Trustbydesign (certifié Qualiopi)

En savoir plus

NOS TRAVAUX 

Articles, communs juridiques, guides et livres blancs sur les enjeux de l’IA et son encadrement interne

En savoir plus

ACTION DE GROUPE ET AUTRES RECOURS

Nous signaler une problématique pour faire valoir vos droits, parce qu'il ne peut y avoir de loyauté des algorithmes sans possibilité d'exercice effectif des droits 

En savoir plus