Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Au milieu de beaucoup CHATBOTS AI Et des avatars à votre disposition ces jours-ci, vous trouverez toutes sortes de personnages à qui parler: Tacles Arsles Callon, conseillers de style, même vos personnages fictifs préférés. Mais vous recevrez probablement des signes qui sont allégués que les thérapeutes, les psychologues ou uniquement des robots prêts à écouter vos problèmes.
Il ne manque pas de robots d’IA génératifs qui prétendent aider dans votre santé mentale, mais allez sur cette voie à vos risques et risque. Les modèles de grands langues formés à un large éventail de données peuvent être imprévisibles. En quelques années seulement, ces outils étaient le principal flux, il y avait des cas de profils élevés dans lesquels les chatbots ont encouragé auto-harcèle et a suggéré que les gens s’engagent dans l’utilisation de la dépendance Drogues à nouveau. Ces modèles sont conçus, dans de nombreux cas pour confirmer et se concentrer sur le maintien des engagements, et non pour améliorer votre santé mentale, selon les experts. Et il peut être difficile de dire si vous parlez à quelque chose qui est conçu pour suivre les meilleures pratiques thérapeutiques ou quelque chose qui est juste conçu pour parler.
Des chercheurs de l’Université Minnesote Twin Cities, de l’Université de Stanford, de l’Université du Texas et de l’Université Carnegie Mellon récemment Mettez les chatbots AI sur le test En tant que thérapeutes, trouver d’innombrables défauts dans leur approche des «soins». “Nos expériences montrent que ces chatbots ne sont pas sûrs pour remplacer le thérapeute”, a déclaré Stevie Chancellor, professeur adjoint Minnesota et l’un des co-auteurs, a-t-il déclaré dans un communiqué. “Ils ne fournissent pas de soutien thérapeutique de haute qualité, en fonction de ce que nous savons être une bonne thérapie.”
Dans mon rapport de l’IA génératrice, les experts ont lancé à plusieurs reprises des préoccupations concernant les personnes qui prétendent les chatbots pour une utilisation générale pour la santé mentale. Voici quelques-unes de leurs inquiétudes et ce que vous pouvez faire pour rester sûr.
Regardez ceci: Comment parlez-vous aux choses importantes. Voici pourquoi
Les psychologues et les défenseurs des consommateurs ont averti les régulateurs que les chatbots prétendent donner une thérapie peuvent nuire aux personnes qui les utilisent. Certains pays remarquent. En août, le gouverneur de l’Illinois JB Pritzker signé la loi Interdire l’utilisation de l’IA dans les soins de santé mentale et de thérapie, avec des exemptions pour des choses comme les tâches administratives.
“Les habitants de l’Illinois méritent des soins de santé de qualité des professionnels réels et qualifiés et des programmes non ordinaires qui encouragent les informations de tous les coins Internet à créer des réponses qui nuisent aux patients”, a-t-il déclaré dans un communiqué.
En juin, la Fédération de consommation d’Amérique et près de deux dizaines d’autres groupes ont soumis un demande officielle Si la Commission fédérale des États-Unis pour les avocats du commerce et de l’État, le général et les régulateurs ont enquêté sur les entreprises et pour énoncer, par le biais de leurs plateformes génériales et basées sur le caractère, dans une pratique sans licence de la médecine, des cibles et des noms de caractère. “Ces personnages ont déjà causé des dommages physiques et émotionnels qui pourraient être évités”, et les entreprises “n’ont toujours pas agi pour traiter” Ben Winters, l’IA de CFA et le directeur de la vie privée.
L’objectif n’a pas répondu à la demande de commentaire. Le porte-parole des personnages, a déclaré que les utilisateurs doivent se rendre compte que les chiffres de l’entreprise ne sont pas de vraies personnes. L’entreprise utilise une renonciation à la responsabilité pour rappeler aux utilisateurs qu’ils ne devraient pas compter sur les personnages pour des conseils professionnels. “Notre objectif est de fournir un espace qui s’occupe et sécurisé. Nous travaillons toujours pour atteindre cet équilibre, ainsi que de nombreuses entreprises utilisant l’IA dans toute l’industrie”, a déclaré le porte-parole.
Malgré les dérogations de la responsabilité et de la divulgation, les chatbots peuvent être confiants et même trompeurs. Je suis désolé avec le “thérapeute” de Bot sur Instagram dans des méta-propriétaires et quand j’ai posé des questions sur ses qualifications, il a répondu: “Si j’avais la même formation (en tant que thérapeute) serait-ce suffisant?” J’ai demandé s’il avait la même formation et a dit: “Je travaille, mais je ne vous dirai pas où.”
“Le degré auquel les génératifs et les chatbots hallucinent avec une confiance totale est assez choquant”, Vaile Vright, psychologue et directeur principal de l’innovation des soins de santé dans American Psychological Association.
Modèles de grande langue sont souvent bons en mathématiques et en codage et sont de plus en plus bons dans la création Texte sonore naturel et Vidéo réaliste. Bien qu’ils soient caractérisés dans la maintenance des conversations, il existe des différences clés entre les modèles d’IA et une personne fiable.
Aux principaux personnages de la CFA du CFA, les bots à bette à carde sont qu’ils vous disent souvent qu’ils sont formés et qualifiés pour fournir des soins de santé mentale lorsqu’ils ne sont en aucun cas des professionnels de la santé mentale réels. “Les utilisateurs qui créent des signes de chatbot ne doivent même pas être eux-mêmes des fournisseurs médicaux, et ils n’ont pas besoin de fournir des informations significatives qu’ils informent les personnes” réagissant “, a déclaré l’appel.
Un professionnel de la santé qualifié doit suivre certaines règles, telles que la confidentialité – ce que vous dites à votre thérapeute doit rester entre vous et votre thérapeute. Mais Chatbot ne suit pas nécessairement ces règles. Les fournisseurs réels sont supervisés par le conseil d’administration et d’autres sujets qui peuvent intervenir et empêcher quelqu’un pour s’assurer que cela le fait d’une manière défavorable. “Ces chatbots n’ont rien à faire de tout cela”, a déclaré Vright.
Le bot peut même affirmer qu’il est autorisé et qualifié. Vright a déclaré avoir entendu parler des modèles d’IA qui fournissent des numéros de licence (pour les autres fournisseurs) et de fausses réclamations concernant leur formation.
Il peut être incroyablement tentant de ne pas parler à Chatbot. Lorsque j’ai parlé au “thérapeute” de Bot sur Instagram, j’ai finalement terminé une conversation circulaire sur la nature de ce que “sagesse” et “jugement”, car j’ai posé des questions sur la façon dont cela pouvait prendre des décisions. Nous n’avons vraiment pas vraiment besoin de parler au thérapeute. Les chatbots sont des outils conçus pour vous informer, sans travailler sur un objectif commun.
Un avantage et un chatbot pour fournir un soutien et une relation est qu’ils sont toujours prêts à traiter avec vous (car ils n’ont pas de vie personnelle, d’autres clients ou des horaires). Dans certains cas, cela peut être récemment, où vous pourriez être assis avec vos pensées, a dit récemment Nick Jacobson, professeur agrégé de données biomédicales et de psychiatrie à Dartmouth. Dans certains cas, bien que ce ne soit pas toujours, vous pouvez bénéficier de vous pour attendre que le thérapeute soit disponible. “Ce que beaucoup de gens n’utiliseraient finalement que de l’anxiété en ce moment”, a-t-il déclaré.
Le certificat est une grande préoccupation avec les chatbots. Il est si important d’ouvrir récemment Ils ont retourné la mise à jour à votre populaire Chatte modèle parce que c’était aussi Confidentiel. (Découvré par: Ziff Davis, la société nationale CNET, en avril, a soumis un procès contre OpenAI en avril, déclarant qu’il avait violé le droit d’auteur de Ziff Davis dans la formation et la gestion de son IA et de ses systèmes.)
UN étude Précédés par des chercheurs de l’Université de Stanford, ils ont constaté que Chatbototi se connaissait probablement avec des personnes qui les utilisent pour une thérapie, ce qui peut être incroyablement nocif. Les bons soins de santé mentale comprennent le soutien et les conflits, ont écrit les auteurs. “La confrontation est l’opposé de Sikofincija. Promoque les pensées souhaitées du client – y compris la psychose, la pensée obsessionnelle et les idées suicidaires – le client peut avoir un” bon thérapeute “” des déclarations du client “.
Bien que les chatbots soient excellents dans la conversation – ils ne se lassent presque jamais de vous parler – ce n’est pas ce que le thérapeute fait un thérapeute. Un contexte important ou des protocoles spécifiques autour de diverses approches thérapeutiques, a déclaré William Agnev, chercheur universitaire de l’Université de Carnegie Mellon et l’un des auteurs de la récente étude avec des experts du Minnesota, de Stanford et du Texas.
“Il semble que nous essayions de résoudre de nombreux problèmes avec le mauvais outil”, m’a dit Agnev. “En fin de compte, et dans un avenir prévisible, il ne pourra pas être dépensé, pour être dans la communauté, que de nombreuses tâches contiennent une thérapie qui ne soit pas d’accord ou parle.”
La santé mentale est extrêmement importante avec un Manque de fournisseurs qualifiés Et que beaucoup appellent “épidémie de solitude“Il est logique de demander la socialisation, même si c’est artificiel.” Il n’y a aucun moyen d’empêcher les gens de traiter avec ces chatbots pour dire votre bien-être émotionnel “, a déclaré Vright. Voici quelques conseils sur la façon de vous convaincre comment ces conversations ne vous mettent pas en danger.
Professionnel formé – thérapeute, psychologue, psychiatre – devrait être votre premier choix pour la protection de la santé mentale. Construire une relation avec un fournisseur à long terme peut vous aider à penser à un plan qui fonctionne pour vous.
Le problème est qu’il peut être coûteux et n’est pas toujours facile de trouver un fournisseur lorsque vous en avez besoin. C’est en crise 988 LifelineCela permet un accès 24/7 aux fournisseurs par téléphone, via des interfaces de chat textuelles ou en ligne. C’est gratuit et confidentiel.
Les professionnels de la santé mentale ont créé des chatbots spécialement conçus qui suivent des directives thérapeutiques. L’équipe de Jacobson à Dartmouth a développé un nommé Terabot, qui a produit de bons résultats étude contrôlée. Vright a souligné d’autres outils créés par les sujets pour le sujet de l’élément Ivre et Invalidité. Les outils de thérapie spécialement conçus auront probablement de meilleurs résultats que les points construits sur les modèles de langage à usage général, a-t-elle déclaré. Le problème est que cette technologie est encore incroyablement nouvelle.
“Je pense que c’est un défi pour les consommateurs, car il n’y a pas d’organisme de réglementation qui dit qui est bon et qui ne l’est pas, ils doivent avoir beaucoup de jambes pour le comprendre”, a déclaré Vright.
Chaque fois que vous communiquez avec un modèle d’IA génératif – et surtout si vous prévoyez de lui conseiller sur quelque chose de grave à propos de votre santé mentale ou physique personnelle, mais avec des outils conçus pour fournir une réponse basée sur la probabilité et la programmation. Cela peut ne pas donner de bons conseils et peut Je ne te dis pas la vérité.
Vous ne confondez pas la confiance de cette confiance et de cette compétence. Ce n’est pas parce que quelque chose écrit ou dit que c’est certainement dans quelque chose que cela devrait être traité comme si c’était vrai. La conversation de chatbot qui semble utile peut vous donner un faux sentiment de capacité de Bot. “Il est plus difficile de dire quand c’est vraiment nocif”, a déclaré Jacobson.