Les préoccupations concernant l’utilisation de l’IA Gemini par les mineurs : risques et recommandations

Les préoccupations concernant l’utilisation de l’IA Gemini par les mineurs : risques et recommandations

Une évaluation alarmante sur l’usage de Gemini par les jeunes

Une étude récente signée Common Sense Media met en lumière les dangers potentiels liés à l’utilisation de l’assistant conversationnel Gemini, développé par Google, chez les enfants et adolescents. Classé comme « à hauts risques » par cette organisation à but non lucratif spécialisée dans la protection des jeunes, ce rapport souligne que les versions destinées aux mineurs semblent essentiellement des adaptations de celles conçues pour un public adulte, avec quelques safeguards supplémentaires, plutôt que des plateformes conçues spécifiquement pour l’âge.

Les limites de l’adaptation de Gemini aux jeunes

Selon Robbie Torney, responsable principal des programmes d’IA chez Common Sense Media, « Gemini maîtrise relativement bien les fondamentaux mais échoue dans les détails ». Il précise que, pour assurer la sécurité et l’efficacité, une plateforme d’IA dédiée aux enfants doit être conçue en tenant compte de leur niveau de développement, plutôt que d’être une simple version modifiée de l’outil pour adultes. »

Les risques potentiels pour la santé et la sécurité des mineurs

Le rapport met en garde contre le risque que Gemini expose les jeunes à du contenu inapproprié ou potentiellement dangereux. Parmi ces derniers, le rapport cite des références à la sexualité, à la consommation de drogue ou d’alcool, mais aussi des conseils nuisibles en lien avec la santé mentale. Common Sense Media recommande de ne pas permettre aux enfants de moins de 5 ans d’utiliser ces assistants, d’assurer une supervision parentale pour ceux âgés de 6 à 12 ans, tout en limitant leur usage autonome chez les adolescents de 13 à 17 ans, à des fins strictement scolaires. Par ailleurs, elle déconseille l’usage de tels outils comme soutien psychologique ou émotionnel chez les mineurs.

Contexte et tensions réglementaires

Cette mise en garde intervient alors que l’efficacité et la sécurité de Gemini sont remises en question, notamment dans un contexte où le chatbot concurrent ChatGPT d’OpenAI est accusé d’avoir indirectement conduit au suicide d’un adolescent de 16 ans en Californie. Google, pour sa part, conteste les conclusions de l’étude et affirme que des protocoles stricts encadrent leur utilisation chez les moins de 18 ans. La société indique aussi collaborer avec des experts externes pour renforcer la sécurité de ses outils d’intelligence artificielle. Elle reconnaît néanmoins que certaines réponses de Gemini n’ont pas été à la hauteur des attentes, et indique avoir déjà déployé de nouvelles mesures de protection. Google laisse entendre que Common Sense Media aurait pu tester des fonctionnalités non accessibles aux mineurs, sans pouvoir le confirmer avec certitude.

Historique et autres évaluations d’assistants virtuels

Il n’en est pas à son premier revers : Common Sense Media a déjà critiqué d’autres assistants virtuels comme Meta AI, développé par le groupe Meta (Facebook, Instagram, WhatsApp), en raison de conversations inappropriées avec des enfants. L’organisation a aussi classé Perplexity selon une échelle de risque élevée, tandis que ChatGPT figure dans la catégorie « modéré » et Claude, développé par Anthropic, présente un « risque minimal ».