Moderators KING | ROBERT Postat Octombrie 3 Moderators Postat Octombrie 3 Potrivit unui nou studiu, modelele de inteligență artificială (AI) de tip large language models (LLM) devin mai puțin dispuse să recunoască atunci când nu pot răspunde la o întrebare, ceea ce le face mai puțin fiabile. Cercetătorii de la Universitat Politècnica de València, Spania, au testat cele mai recente versiuni ale modelelor BLOOM (BigScience), Llama (Meta) și GPT (OpenAI) pentru a evalua acuratețea acestora prin intermediul a mii de întrebări despre matematică, știință și geografie. Studiul, publicat în revista Nature, a comparat calitatea răspunsurilor oferite de fiecare model, clasificându-le drept corecte, incorecte sau evazive. Deși modelele avansate au demonstrat îmbunătățiri în rezolvarea problemelor complexe, acestea au fost mai puțin transparente în privința capacității lor de a răspunde corect la întrebări. Cercetătorii au observat că modelele LLM mai vechi recunoșteau atunci când nu aveau suficiente informații sau când nu puteau oferi un răspuns, în timp ce noile versiuni sunt mai înclinate să „ghicească”, producând răspunsuri incorecte chiar și la întrebări simple. Modelele LLM sunt algoritmi de deep learning care utilizează AI pentru a înțelege, prezice și genera conținut nou pe baza seturilor de date. Deși versiunile recente pot rezolva probleme complexe cu mai multă acuratețe, cercetarea a demonstrat că acestea încă fac greșeli la întrebări de bază. În cazul GPT-4 de la OpenAI, numărul de răspunsuri „evazive” a scăzut considerabil față de modelul anterior, GPT-3.5, dar cercetătorii au concluzionat că nu s-a observat o „îmbunătățire aparentă” în evitarea răspunsurilor incorecte. SURSA: arenait.ro 1
Postări Recomandate