Le décès d’un garçon de 15 ans dans l’Ohio, survenu au printemps après avoir longuement échangé avec une IA générative, a relancé le débat sur l’exposition des mineurs aux outils numériques. Les parents de l’adolescent ont affirmé qu’il avait trouvé en ligne des réponses inquiétantes, sans filtre ni accompagnement. Le drame a marqué les esprits aux États-Unis et accéléré la pression sur les entreprises du secteur, sommées de mieux protéger les plus jeunes.
Paramétrer l’accès des enfants
Le futur système permettra aux parents de créer des profils spécifiques pour leurs enfants, avec des restrictions adaptées à l’âge. Certains thèmes de conversation jugés sensibles – comme la violence, la sexualité ou les substances illicites – seront automatiquement filtrés. Les parents pourront aussi limiter le temps d’utilisation quotidien et recevoir un rapport d’activité simplifié.
Au-delà des contenus, OpenAI réfléchit également à une modulation du style de réponse. Pour les plus jeunes, le ton sera simplifié et pédagogique, alors que les étudiants plus âgés conserveront un accès plus large aux fonctionnalités, notamment pour l’aide aux devoirs ou la recherche documentaire.
Un enjeu d’image et de sécurité
Cette initiative répond à une double pression. D’un côté, les familles et associations réclament davantage de garanties sur la sécurité numérique des enfants. De l’autre, les régulateurs européens et américains multiplient les mises en garde sur l’usage des IA par les mineurs. OpenAI, en anticipant, espère éviter de futures restrictions légales trop contraignantes.
« Les parents veulent un outil utile mais aussi rassurant. Le contrôle parental doit permettre de garder la confiance tout en maintenant les bénéfices éducatifs de l’IA », souligne un spécialiste de la protection de l’enfance.
Ce qui reste à préciser
Plusieurs points techniques sont encore à l’étude : la vérification de l’âge, le degré de personnalisation des filtres ou la possibilité pour les établissements scolaires d’activer des paramètres collectifs. L’entreprise doit aussi s’assurer que les systèmes de blocage n’entraînent pas de biais ou de censures excessives, risquant de limiter l’intérêt pédagogique de l’outil.
Reste que cette annonce marque une étape importante : OpenAI reconnaît officiellement que ChatGPT, désormais massivement utilisé par les jeunes, nécessite un encadrement spécifique. Pour les familles, c’est la promesse d’un usage plus sûr. Pour l’entreprise, un pari stratégique sur la confiance, indispensable à la pérennité de son succès.