Докато гиганти като OpenAI и Google DeepMind разчитат на модели

...
Докато гиганти като OpenAI и Google DeepMind разчитат на модели
Коментари Харесай

Мнение: първият свръхразумен ИИ ще бъде майстор в обучението

Докато колоси като OpenAI и Гугъл DeepMind разчитат на модели с мащабиране и изчислителна мощност, откривателят от Thinking Machines Lab Рафаел Рафаилов предложи различен метод за основаване на свръхинтелигентност. Той съобщи, че бъдещето на изкуствения разсъдък не е в количеството на образованието, а в неговото качество. Първият гигантски разсъдък ще се характеризира не със своята мощност, а със способността си да се учи от личния си опит и да се приспособява. Най-вероятно Thinking Machines Lab, стартъпът на някогашния основен механически шеф на OpenAI Мира Мурати, който към този момент е набрал 2 милиарда $, ще се заеме точно с такива системи.

„ Първият свръхразум ще надмине хората по способността си да се учи “, съобщи Рафаилов на конференцията TED AI в Сан Франциско. Подобен изкуствен интелект ще може дейно да основава концепции и да се приспособява, да предлага лични хипотези, да организира опити и да употребява околната среда, с цел да ревизира концепциите си, сподели още той.

Рафаилов подлага на критика метода на OpenAI, Anthropic и Гугъл DeepMind, които са вложили милиарди в увеличение на моделите и данните. Според него това, което липсва на AI системите, не е тяхната мощност, а способността им да се учат от своя личен опит.

За да илюстрира казуса, откривателят дава образец с AI програмистите. Въпреки способността да извършват комплицирани задания, като да вземем за пример разбор на код и използване на функционалности, тези системи не резервират насъбрания опит и не натрупват познания.

За разлика от хората, които усъвършенстват уменията си с течение на времето, AI стартира да се учи отначало всякога. По създание моделът възприема всеки „ работен ден “ като първи.

Рафаилов обърна внимание и на наклонността сходни сътрудници да употребяват структурите try/except pass, които разрешават на програмата да продължи работа при пораждане на неточности. Той изясни, че това отразява рестриктивните мерки на актуалните системи за образование: моделите са усъвършенствани за бързо решение на проблемите, а не за схващане и самоусъвършенстване.

„ По-нататъшното увеличение на изчислителната мощ няма да докара до основаването на същински общ изкуствен интелект. Не сме в положение да се оправим с общия AI и свръхинтелигентността в границите на сегашните парадигми “,.

каза още Рафилов

Според откривателя вместо върху мащабирането би трябвало да се съсредоточим върху качествените данни и вярната конструкция на възнаграждението за учене.

Рафилов предлага да се употребява „ метаобучение “ или „ образование за учене “. Вместо разнородни задания, моделите получават структурирани курсове за образование с извършения.

По този метод се възнаграждава напредъкът в образованието, способността за асимилиране на абстракции и адаптиране, а не просто решаването на съответна задача. Този метод имитира метода, по който ученикът последователно се учи от учебника, и към този момент е потвърдил своята успеваемост в системи като AlphaGo.

Лабораторията Thinking Machines Lab е учредена през февруари от някогашния основен механически шеф на OpenAI Мира Мурати и към този момент е набрала рекордните 2 милиарда $ начално финансиране при оценка от 12 милиарда $. В стартъпа работят към 30 откриватели от OpenAI, Гугъл, Meta и други водещи лаборатории. Компанията към този момент пусна първия си артикул – Tinker – приложно-програмен интерфейс с отворен код за тънко конфигуриране на моделите Според Рафаилов това е единствено основата на по-амбициозна стратегия, ориентирана към създаването на изкуствен интелект, кадърен да се учи независимо.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР