À propos du laboratoire

The Childhood and AI Lab is a global research and action center — and a project of AIChildSafety.org — working to ensure AI strengthens, rather than weakens, childhood attention, curiosity, creativity, critical thinking, and social skills.

Why Now ?

In an era where artificial intelligence is rapidly reshaping every aspect of human life, children stand at a unique crossroads. From smart toys and educational platforms to conversational AI companions, today’s children are the first generation growing up fully immersed in AI. This technological immersion is already transforming how children think, learn, create, and relate – yet society is proceeding without adequate evidence, standards, or safeguards.

Notre modèle

AIChildSafety.org was founded to address this critical gap by conducting research into the effects of AI on children and youth and helping NGOs, tech companies, and governments navigate AI risks to ensure every child can learn, thrive, and participate safely in an AI-powered world. One of the ways we do this is through our Childhood and AI Research Fellowship, which gathers a wide spectrum of researchers committed to understanding and addressing the effects of AI on children.

Premier programme : bourse de recherche

The Lab launched with the Bourse de recherche – a crossdisciplinary community advancing evidence on AI’s effects on childhood and translating insights into practice.

Quelle est la prochaine étape

 

Activités principales

Recherche originale

Nous mènerons des études coordonnées du laboratoire à la salle de classe jusqu'à la maison pour comprendre les effets sur l'attention, la mémoire, la fonction exécutive, la créativité et le développement social ; les résultats informeront les constructeurs, les régulateurs et les écoles.

Ingénierie de la sécurité

Nous examinerons les systèmes d’IA pour détecter les risques liés au développement et publierons nos évaluations et les mesures d’atténuation proposées pour accélérer des choix de produits plus sûrs.

Normes et risques

Nous collaborerons avec d'autres entités pour promouvoir une norme de sécurité du développement de l'enfant qui définit les classes de risque développemental, les seuils de preuve et les niveaux d'assistance adaptés à l'âge.

 

Co‑conception et alphabétisation

Nous créerons conjointement des modèles de produits plus sûrs avec les jeunes, les parents et les enseignants, proposerons des programmes pratiques d'initiation à l'IA et des politiques d'utilisation pour les familles et les écoles.

Mesurer l'impact

Notre approche consiste à mesurer ce qui compte : la stabilité de l'attention, la fonction exécutive, la pensée critique, l'expression créative, la santé socio-émotionnelle — ainsi que les modèles de produits et les décisions de sécurité qui les influencent. Les résultats seront publiés dans un Evidence Commons ouvert pour le bien public.

Gouvernance et sauvegarde

Partenaire du Lab

Nous collaborons avec des ONG, des écoles, des gouvernements et des entreprises technologiques pour traduire les preuves en une IA plus sûre et plus efficace pour les enfants.