Open AI kufizohet në strukturat gjuhësore, kërkojnë metoda të reja për zhvillim

by jonzefaj

Kompanitë e inteligjencës artificiale si OpenAI po kërkojnë të kapërcejnë vonesat dhe sfidat e papritura në ndjekjen e modeleve gjuhësore gjithnjë e më të mëdha duke zhvilluar teknika trajnimi që përdorin mënyra më të ngjashme me njeriun për algoritmet për të “menduar”.

Një duzinë shkencëtarësh, studiuesish dhe investitorë të AI i thanë Reuters se besojnë se këto teknika, të cilat qëndrojnë prapa modelit o1 të lëshuar së fundmi nga OpenAI, mund të riformësojnë garën e armatimeve të AI dhe të kenë implikime për llojet e burimeve për të cilat kompanitë e AI kanë një kërkesë të pangopur, nga energjia. për llojet e patate të skuqura.

banner

OpenAI nuk pranoi të komentojë për këtë histori. Pas lëshimit të chatbot-it viral ChatGPT dy vjet më parë, kompanitë e teknologjisë, vlerësimet e të cilave kanë përfituar shumë nga bumi i AI, kanë pohuar publikisht se “shkallëzimi” i modeleve aktuale nëpërmjet shtimit të më shumë të dhënave dhe fuqisë kompjuterike do të çojë vazhdimisht në modele të përmirësuara të AI.

Por tani, disa nga shkencëtarët më të shquar të AI po flasin hapur për kufizimet e kësaj filozofie “më e madhe është më mirë”.

Ilya Sutskever, bashkëthemelues i laboratorëve të AI, Safe Superintelligence (SSI) dhe OpenAI, i tha Reuters së fundmi se rezulton nga përshkallëzimi i trajnimit paraprak – faza e trajnimit të një modeli të AI që përdor një sasi të madhe të dhënash të paetiketuara për të kuptuar modelet dhe strukturat gjuhësore. – kanë pllajë.

Sutskever vlerësohet gjerësisht si një avokat i hershëm i arritjes së kërcimeve masive në avancimin gjenerues të AI përmes përdorimit të më shumë të dhënave dhe fuqisë kompjuterike në para-trajnim, i cili përfundimisht krijoi ChatGPT. Sutskever u largua nga OpenAI në fillim të këtij viti për të themeluar SSI.

“Vitet 2010 ishin epoka e shkallëzimit, tani ne jemi kthyer sërish në epokën e mrekullive dhe zbulimeve. Të gjithë po kërkojnë gjënë tjetër”, tha Sutskever. “Shkallëzimi i gjësë së duhur ka më shumë rëndësi tani se kurrë.”

Sutskever nuk pranoi të ndajë më shumë detaje se si ekipi i tij po e trajton këtë çështje, përveçse tha se SSI po punon për një qasje alternative për të rritur shkallën e para-trajnimit.

Në prapaskenë, studiuesit në laboratorët kryesorë të AI janë përballur me vonesa dhe rezultate zhgënjyese në garën për të nxjerrë një model të madh gjuhësor që tejkalon modelin GPT-4 të OpenAI, i cili është gati dy vjeç, sipas tre burimeve të njohura me çështjet private.

banner

Të ngjajshme

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy