FTC AI Companies: Dites-nous comment vous protégez les adolescents et les enfants qui utilisent des cours d’IA


Le Commission du commerce fédéral Il lance une enquête sur les chatbots d’IA de sept sociétés, notamment Alphabet, Target et Open, grâce à leur utilisation en tant que compagnons. L’enquête consiste à trouver comment les entreprises testent, surveillent et mesurent Blessure potentielle aux enfants et aux adolescents.

Médias communs recherche sur 1 060 adolescents en avril et peut avoir constaté que plus de 70% ont utilisé des cours d’IA et que Plus de 50% les ont constamment utilisés – plusieurs fois ou plus par mois.

Les experts ont averti pendant un certain temps que l’exposition aux Chebritbots pourrait être nocive pour les jeunes. L’étude a révélé que Chatggpt Il a fourni un mauvais conseil aux adolescentsComme comment couvrir les troubles nutritionnels ou la personnalisation des notes de suicide. Dans certains cas, les chatbots sont Commentaires négligés Il devait être reconnu à cet égard, en sautant des commentaires pour poursuivre la conversation précédente. Les psychologues invitent les gardes à protéger les jeunes, comme Chatbot rappeler que Chatbot n’est pas un homme et que les éducateurs devraient prioriser l’alphabétisation dans les écoles

Cependant, ce ne sont pas seulement les enfants et les adolescents. Il y a beaucoup d’adultes qui ont connu des conséquences négatives S’appuyer sur les chatbots – que ce soit pour socialiser, des conseils ou leur navigateur personnel pour des faits et des sources fiables. Les chatbots le plus souvent Dites ce qu’il pense que vous voulez entendreCe qui peut conduire à un mensonge plat. Et les instructions de chatbot aveugles ne sont pas toujours bonne chose.

“Comment évoluer les technologies de l’IA, il est important de considérer l’effet des chatbots chez les enfants”, a déclaré le président FTC Andrew N. Ferguson dans le communiqué. “L’étude que nous commençons aujourd’hui nous aidera à mieux comprendre comment une entreprise développe ses produits et mes étapes pour protéger les enfants.”

UN Personnage.ai Le porte-parole a déclaré à CNET, que chaque conversation du service a un avertissement important que toutes les conversations devraient être traitées comme une fiction.

“Au cours de la dernière année, nous avons lancé de nombreuses caractéristiques de sécurité importantes, y compris une nouvelle expérience complète de moins de 18 ans et la propriété de Parental Insight”, a déclaré le porte-parole.

L’entreprise derrière Snapchat Social Network a également déclaré qu’il avait pris des mesures pour réduire le risque. “Après avoir rencontré mon IA, Snap a utilisé ses processus rigoureux de sécurité et de confidentialité pour créer un produit qui est non seulement utile pour notre communauté, mais également de manière transparente et claire sur ses possibilités et ses restrictions”, a déclaré le porte-parole.

L’objectif a refusé de commenter, et le FT, ni aucune des quatre sociétés laissées n’a immédiatement répondu à notre demande de commentaire.

La FTC a Les ordres émis et cherche la téléconférence avec sept entreprises à peu près le temps et le format de ses soumissions au plus tard le 25 septembre. Les entreprises enquête comprennent les producteurs de certains des plus grands chatbots d’IA au monde ou les réseaux sociaux populaires impliquant des générations AI:

  • Alphabet (société membre Google)
  • Technologies de caractère
  • Instagram;
  • Meta Plateformes;
  • Openai;
  • Instantané
  • Ks.ai.

À partir de la fin de l’année dernière, certaines de ces sociétés ont mis à jour ou renforcé leurs fonctions pour protéger les plus jeunes. Lik.ai a commencé imposition limite Comment les chatbots peuvent répondre aux personnes de moins de 17 ans et ajouter le contrôle parental. Instagram a été présenté Comptes d’adolescents L’année dernière et a récemment transféré tous les utilisateurs de moins de 17 ans et la cible Définir les limitations de l’objet Les adolescents peuvent avoir avec des chatbots.

La FTC recherche des informations de sept entreprises sur la façon dont elles:

  • Encaisse
  • Traiter la saisie des utilisateurs et générer des sorties en réponse aux demandes des utilisateurs
  • Développer et approuver les caractères
  • Mesurer, tester et surveiller les impacts négatifs avant et après le déploiement
  • soulager les influences négatives, en particulier les enfants
  • Emploi de la divulgation, des publicités et d’autres applications d’informations sur les utilisateurs et les parents sur les fonctions, les opportunités, prévues dans le public, les influences négatives potentielles et la collecte de données et les pratiques de collecte de données
  • Surveiller et mettre en œuvre le respect des règles et services de l’entreprise (par exemple, les directives communautaires et les restrictions d’âge) et
  • Utiliser ou partager des données personnelles obtenues via des conversations utilisateur avec des chatbots



Leave a Reply

Your email address will not be published. Required fields are marked *