Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Le Commission du commerce fédéral Il lance une enquête sur les chatbots d’IA de sept sociétés, notamment Alphabet, Target et Open, grâce à leur utilisation en tant que compagnons. L’enquête consiste à trouver comment les entreprises testent, surveillent et mesurent Blessure potentielle aux enfants et aux adolescents.
Médias communs recherche sur 1 060 adolescents en avril et peut avoir constaté que plus de 70% ont utilisé des cours d’IA et que Plus de 50% les ont constamment utilisés – plusieurs fois ou plus par mois.
Les experts ont averti pendant un certain temps que l’exposition aux Chebritbots pourrait être nocive pour les jeunes. L’étude a révélé que Chatggpt Il a fourni un mauvais conseil aux adolescentsComme comment couvrir les troubles nutritionnels ou la personnalisation des notes de suicide. Dans certains cas, les chatbots sont Commentaires négligés Il devait être reconnu à cet égard, en sautant des commentaires pour poursuivre la conversation précédente. Les psychologues invitent les gardes à protéger les jeunes, comme Chatbot rappeler que Chatbot n’est pas un homme et que les éducateurs devraient prioriser l’alphabétisation dans les écoles
Cependant, ce ne sont pas seulement les enfants et les adolescents. Il y a beaucoup d’adultes qui ont connu des conséquences négatives S’appuyer sur les chatbots – que ce soit pour socialiser, des conseils ou leur navigateur personnel pour des faits et des sources fiables. Les chatbots le plus souvent Dites ce qu’il pense que vous voulez entendreCe qui peut conduire à un mensonge plat. Et les instructions de chatbot aveugles ne sont pas toujours bonne chose.
“Comment évoluer les technologies de l’IA, il est important de considérer l’effet des chatbots chez les enfants”, a déclaré le président FTC Andrew N. Ferguson dans le communiqué. “L’étude que nous commençons aujourd’hui nous aidera à mieux comprendre comment une entreprise développe ses produits et mes étapes pour protéger les enfants.”
UN Personnage.ai Le porte-parole a déclaré à CNET, que chaque conversation du service a un avertissement important que toutes les conversations devraient être traitées comme une fiction.
“Au cours de la dernière année, nous avons lancé de nombreuses caractéristiques de sécurité importantes, y compris une nouvelle expérience complète de moins de 18 ans et la propriété de Parental Insight”, a déclaré le porte-parole.
L’entreprise derrière Snapchat Social Network a également déclaré qu’il avait pris des mesures pour réduire le risque. “Après avoir rencontré mon IA, Snap a utilisé ses processus rigoureux de sécurité et de confidentialité pour créer un produit qui est non seulement utile pour notre communauté, mais également de manière transparente et claire sur ses possibilités et ses restrictions”, a déclaré le porte-parole.
L’objectif a refusé de commenter, et le FT, ni aucune des quatre sociétés laissées n’a immédiatement répondu à notre demande de commentaire.
La FTC a Les ordres émis et cherche la téléconférence avec sept entreprises à peu près le temps et le format de ses soumissions au plus tard le 25 septembre. Les entreprises enquête comprennent les producteurs de certains des plus grands chatbots d’IA au monde ou les réseaux sociaux populaires impliquant des générations AI:
À partir de la fin de l’année dernière, certaines de ces sociétés ont mis à jour ou renforcé leurs fonctions pour protéger les plus jeunes. Lik.ai a commencé imposition limite Comment les chatbots peuvent répondre aux personnes de moins de 17 ans et ajouter le contrôle parental. Instagram a été présenté Comptes d’adolescents L’année dernière et a récemment transféré tous les utilisateurs de moins de 17 ans et la cible Définir les limitations de l’objet Les adolescents peuvent avoir avec des chatbots.
La FTC recherche des informations de sept entreprises sur la façon dont elles: