La Californie a adopté lundi une législation historique pour protéger les enfants qui utilisent des technologies émergentes comme l’intelligence artificielle et les médias sociaux, selon un communiqué du bureau du gouverneur Gavin Newsom. Les technologies émergentes telles que les chatbots IA et les plateformes de médias sociaux peuvent éduquer et inspirer les utilisateurs, mais elles exploiteront également et mettront en danger les enfants si cette technologie n’a pas de garde-fous, a déclaré Newsom dans le communiqué de lundi. Le gouverneur a cité un nombre croissant d’histoires d’horreur sur des enfants victimes d’une technologie non réglementée. La Californie doit jouer un rôle responsable dans le développement de l’IA et protéger les enfants à chaque étape, a-t-il déclaré.
Quelles exigences la loi inclut-elle ? La législation exige que les plateformes de chatbot IA créent des protocoles permettant d’identifier et de traiter lorsqu’un utilisateur discute de pensées ou d’actions suicidaires. Les plateformes doivent également indiquer clairement aux utilisateurs que les interactions des robots sont entièrement fausses, empêcher les mineurs de visualiser des images sexuellement explicites générées par l’IA et interdire aux chatbots de se présenter comme des professionnels de la santé. Les entreprises d’IA ne peuvent échapper à leur responsabilité en arguant que les chatbots et les programmes d’IA agissent de manière autonome, conformément à la loi.
La loi exige également que les systèmes d’exploitation et les magasins d’applications utilisent des vérifications d’âge pour empêcher les enfants d’accéder à des contenus inappropriés ou dangereux en ligne. Les plateformes de médias sociaux doivent également inclure des étiquettes avertissant les utilisateurs des méfaits liés à un défilement excessif. La loi renforce les sanctions en cas de deepfake pornographie, permettant désormais à toutes les victimes, y compris les mineurs, de poursuivre jusqu’à 250 000 dollars contre des tiers qui aident sciemment à la distribution de matériel illicite. Le ministère de l’Éducation de l’État et ses agences locales sont également chargés d’adopter une politique sur la manière de traiter les rapports de cyberintimidation en dehors des heures de classe.
La California Medical Association a célébré la ratification de la loi, en particulier la partie interdisant aux systèmes d’IA de se présenter comme des professionnels de la santé agréés. Le statut a marqué une victoire essentielle en faveur de la sécurité des patients et de la transparence, a déclaré la présidente de l’association, Shannon Udovic-Constant, dans le communiqué de presse de lundi.






