Les problèmes de précision de Gene Ai ne se passent pas à presque le moment, disent que les chercheurs disent


CHATBOTS GÉNÉRATIVES AI Il est connu pour faire beaucoup d’erreurs. Espérons que vous ne suivez pas Google et la proposition Ajoutez l’adhésif à votre recette de pizza ou manger du rocher ou deux par jour pour leur santé.

Ces erreurs sont connues sous le nom hallucinations: Essentiellement, les choses qui font. Cette technologie sera-t-elle améliorée? Même les chercheurs qui étudient IA Ils ne sont pas optimistes qui se produiront bientôt.

C’est l’une des résultats du panneau Deux douzaines d’experts en intelligence artificielle L’Association pour l’amélioration de l’intelligence artificielle a été publiée ce mois-ci. Le groupe a également recherché plus de 400 membres de l’association.

Vous avez Atlas

Contrairement à la HIPE, vous pouvez voir sur les développeurs que seulement (ou des mois, selon ce qu’il faut demander), ce panel académique et industriel semble être plus maintenu sur la rapidité avec laquelle ces outils s’amélioreront. Cela ne comprend que pour devenir correctement les faits et éviter les erreurs bizarres. La fiabilité et les outils doivent être considérablement augmentés si les développeurs produiront un modèle qui peut Apprenez à connaître ou à survivre à l’intelligence humaineGénéralement connu sous le nom d’intelligence générale artificielle. Les chercheurs semblent croire que dans cette échelle, ils n’arriveront probablement pas bientôt.

“Nous sommes sujets à un peu prudent et nous ne croyons pas quelque chose avant que cela ne fonctionne réellement”, ” Vincent ContrerProfesseur d’informatique à l’Université Carnegie Mellon et l’un des panélistes, m’a-t-il dit.

L’intelligence artificielle s’est développée brusquement ces dernières années

L’objectif du rapport, a écrit le président AAAAI Francesca Rossi dans son introduction, est de soutenir la recherche en intelligence artificielle qui produit une technologie qui aide les gens. Les problèmes de confiance et de fiabilité sont graves, non seulement pour fournir des informations précises, mais pour éviter les biais et assurer une future IA, l’IA ne provoque pas de conséquences graves involontaires. “Nous devons tous travailler ensemble pour améliorer l’IA, pour nous assurer que le progrès technologique soutient les progrès de l’humanité et est harmonisé avec les valeurs humaines”, a-t-elle écrit.

Accélération AI, surtout depuis le début d’Openai Chatte En 2022, l’année a été extraordinaire, a déclaré Conitzer. “D’une certaine manière, ils ont étonné et beaucoup de ces techniques font beaucoup mieux que la plupart d’entre nous ne le pensaient”, a-t-il déclaré.

Il y a certains domaines et recherches où “le battage médiatique a un crédit” John DeckstonProfesseur adjoint du professeur informatique à l’Université Cornell, m’a-t-il dit. Cela est particulièrement vrai en mathématiques ou en sciences, où les utilisateurs peuvent vérifier les résultats du modèle.

“Cette technologie est incroyable”, a déclaré DeBlstiston. “Je travaille dans ce domaine plus d’une décennie, et cela m’a choqué à quel point c’est devenu et à quelle vitesse il est bon.”

Malgré ces améliorations, il y a encore des problèmes importants qui méritent la recherche et la considération, ont déclaré les experts.

Les chatbots ont-ils commencé à faire leurs faits?

Malgré certains progrès dans l’amélioration de la fiabilité des informations provenant des modèles d’IA génératifs, il faut faire beaucoup plus de travail. Récemment Rapport de l’examen journalistique de la Colombie Ils ont constaté que les chatbots pourraient probablement refuser des réponses aux questions qui ne pouvaient pas répondre, confiante dans les mauvaises informations qu’ils ont données et établies (et ont fourni des liens fictifs pour) des sources pour faire des torts.

L’amélioration de la fiabilité et de la précision “est probablement le plus grand domaine et la recherche aujourd’hui”, a déclaré le rapport de l’AAAI.

Les chercheurs ont remarqué trois façons principales de renforcer la précision des systèmes d’IA: le cadre fin, comme apprendre à apprendre avec la rétroaction humaine; La génération de téléchargements, dans laquelle le système rassemble certains documents et leur retire leur réponse; Et la chaîne pense que, où les instructions, viole la question en moins d’étapes et le modèle peut vérifier les hallucinations.

Ces choses feront-elles bientôt les réponses de votre chatbot? Il n’est pas probable: “L’inactivité est loin d’être résolue”, selon le rapport. Environ 60% des répondants ont déclaré que le fait ou les préoccupations de la fiabilité serait bientôt résolu.

Dans les génériques et l’industrie, il y avait un optimisme selon lequel cela réduirait plus précisément les modèles existants et réduirait les hallucinations.

“Je pense que l’espoir a toujours été un peu trop optimiste”, a déclaré DeBlstston. “Au cours des dernières années, je n’ai vu aucune preuve de modèles de langage très précis et très factuels au coin de la rue.”

Malgré les mauvais modèles de langue tels que Claude d’Antropic ou Les appels de la métaLes utilisateurs peuvent se détendre qu’ils sont plus précis car ils représentent des réponses en toute confiance, a déclaré Conitzer.

“Si nous voyons quelqu’un répondre confiant ou des mots qui semblent confiants, nous supposons qu’une personne sait vraiment de quoi elle parle”, a-t-il déclaré. “Et le système, il ne pouvait que prétendre qu’elle était très confiante dans quelque chose qui était complètement absurde.”

Leçons pour les utilisateurs de l’IA

La conscience des limitations de la génération AI est vitale à utiliser correctement. Deficstuns modèle du Conseil des utilisateurs comme chatgggpt et Les jumeaux de Google est simple: “Vous devez vérifier les résultats.”

Les modèles généraux de grandes langues font un mauvais travail en récupérant constamment des informations factuelles, a-t-il déclaré. Si vous demandez cela pour quelque chose, vous devriez probablement suivre la recherche de réponses au moteur de recherche (et ne pas compter sur les résultats de recherche de l’IA). Au moment où vous le faites, vous pourriez être préférable de le faire au premier rang.

Destin a déclaré que la façon dont les modèles le plus utilisent est d’automatiser les tâches qui pourraient faire et peuvent vérifier la précision, telles que la mise en forme des tables d’information ou l’écriture ou l’écriture. “C’est un principe plus large de trouver ces modèles les plus utiles pour l’automatisation de l’emploi que vous savez déjà faire”, a-t-il déclaré.

En savoir plus: 5 façons de rester intelligentes lors de l’utilisation d’un gène d’IA, expliqué des professeurs d’informatique

Le bureau de l’intelligence générale artificielle est-il au coin de la rue?

Une industrie de la priorité et du développement est une race apparente pour créer ce qu’on appelle souvent l’intelligence générale artificielle ou l’AGI. Il s’agit d’un modèle qui est principalement capable d’un niveau de pensée humain ou mieux.

La recherche sur le rapport a révélé des opinions biens sur la course à l’AGI. Il est connu que plus des trois quarts (76%) des répondants ont déclaré que la mise à l’échelle des techniques d’IA actuelles telles que les grands modèles de langage est susceptible de produire de l’AGI. La plupart des chercheurs ont soupçonné que la marche actuelle selon AGI fonctionnera.

De même, ils sont principalement considérés que les systèmes sont capables de l’intelligence générale artificielle dans la propriété publique si les entités privées se développent (82%) se développent. Ceci est harmonisé avec la préoccupation de l’éthique et des lacunes potentielles de la création d’un système qui peut entrer dans les gens. La plupart des chercheurs (70%) ont déclaré qu’ils s’opposaient à l’arrêt de la recherche AGI aux systèmes de sécurité et de contrôle développés. “Ces réponses semblent suggérer la préférence de continuer à rechercher le sujet, dans certaines mesures de protection”, indique le rapport.

La conversation autour d’Agi est compliquée, a déclaré Debstison. Dans un sens, nous avons déjà créé des systèmes qui ont une forme d’intelligence générale. Des modèles de grands langues comme Openai Chatggpt sont capables de faire diverses activités humaines, contrairement aux personnes âgées et aux modèles qui ne pouvaient faire qu’une seule chose, comme jouer aux échecs. La question est de savoir s’il peut toujours faire beaucoup de choses au niveau humain.

“Je pense que nous sommes très loin de cela”, a déclaré DeBlstston.

Il a dit que ces modèles n’ont pas de concept de vérité intégré et la capacité de gérer des tâches créatives réellement ouvertes. “Je ne vois pas la façon de les faire agir fortement dans un environnement humain en utilisant la technologie actuelle”, a-t-il déclaré. “Je pense qu’il existe de nombreux progrès de recherche sur la voie de l’acquérir là-bas.”

Conitzer a dit ce qui semble exactement à Agi Frikers, mais certains capables de faire quelque chose de possible pour faire quelque chose qui est possible pour faire quelque chose de possible pour faire quelque chose de possible pour faire quelque chose qui Possible quelque chose de possible à faire quelque chose de possible pour faire quelque chose de possible pour faire quelque chose de possible à quelque chose de possible que ce soit quelque chose qui peut être quelque chose de possible. “La définition de corsion est quelque chose qui nous ferait vraiment trop”, a-t-il déclaré.

Alors que les chercheurs sont sceptiques à Agi est au coin de la rueConitzzr a averti que les chercheurs de l’IA ne s’attendaient pas nécessairement à une amélioration technologique spectaculaire que nous avons tous vu au cours des dernières années.

“Nous n’avons pas vu comment ils sont venus à quel point les choses ont récemment changé”, a-t-il dit, “vous vous demandez peut-être si nous verrons qu’ils le verront si cela va encore plus vite.”



Leave a Reply

Your email address will not be published. Required fields are marked *