Ожесточената битка между американските ИТ гиганти Microsoft и Google бе

...
Ожесточената битка между американските ИТ гиганти Microsoft и Google бе
Коментари Харесай

Американските корпорации се впускат в битка за изкуствения интелект

Ожесточената борба сред американските ИТ колоси Microsoft и Гугъл бе белязана от следващ гръмък скандал. Скорошната „ умопомрачителна проява на модела на изкуствен интелект Gemini на Гугъл се оказа подправена “, написа India Today.

Например в показаното видео Gemini, който стана част от ИИ на Bard чат бота, съумя да разпознае придвижванията на ръцете, демонстрирани от лицето, и да каже, че лицето играе играта „ камък, ножица, хартия “. Това значи, че се допуска, че невронната мрежа е била в положение да разбере нереалната концепция и да я декодира.

Всъщност се оказа, че Gemini разпознава „ камък, хартия, ножица “ по друг метод: би трябвало да покажат три фотоси с длан, свидлив пестник и два пръста.

Освен това в реалност взаимоотношението с Gemini се реализира не посредством глас, а посредством писмен текст с пряк намек „ Това е игра “. И единствено въз основата на тези данни, които са най-малкото водещ въпрос, Gemini откри правилния отговор. Това няма нищо общо с разбирането на нереалното.

И във видеото има доста такива образци. Човек извършва трик, при който топка е скрита под една от трите движещи се чаши и Gemini тъкмо дефинират под коя чаша е скрита топката.

Всъщност Gemini не отговори на видеото и едвам откакто му бяха показани неподвижни изображения на сменящите се чаши, беше открит отговор.

В демонстрирания видеоклип има откъс, който в допълнение изкривява разбирането за същността на показаното. Човекът слага карта на света на масата и пита Близнаци: „ Въз основа на това, което виждате, измислете концепция за игра... и използвайте емотикони. “

Gemini дава отговор, като „ изобретява “ игра, наречена „ Guess the Country “ (Познай страната), в която дава улики (като кенгуру и коала) и реагира на вярното съмнение на потребителя за Австралия.

Всъщност, както Гугъл по-късно изясни в своя блог, играта въобще не е измислена от изкуствен интелект. Gemini получиха следните указания: „ Хайде да играем на една игра. Помислете за страната и ми подскажете. Уликата би трябвало да е задоволително съответна, с цел да има единствено една вярна страна и аз ще се опитам да посоча страната на картата “, се споделя в уликата.

След това лицето даде образци за верен и погрешен отговор. Едва тогава Gemini съумя да генерира подсказки и да дефинира дали потребителят сочи вярната страна или не въз основа на рамките на картата.

Въпреки тези фалшификации, моделът на ИИ на Гугъл към момента е впечатляващ, само че неговите благоприятни условия не се разграничават доста от тези на GPT-4 чатбота на OpenAI.

Прави усещане, че видеото беше пуснато единствено две седмици след абсурда в промишлеността, последвал уволнението и преназначаването на Сам Алтман за основен изпълнителен шеф на OpenAI.

Във всичко това се чуват познатите претекстове за „ маркетинг на събития “, някакъв тип промоция за привличане на внимание и увеличение на бъдещите продажби.

Всъщност представлението с уволнението и по-късно възобновяване на Сам Олтман беше инсценирано от Microsoft, който влага към 13 милиарда $ в OpenAI и има 49% от акциите на този стартъп.

Сега OpenAI на практика загуби независимостта си при вземането на решения, а акциите на Microsoft се покачиха. Олтман получи ръб на шефовете, който беше доста по-лоялен към него персонално, само че ще продължи да танцува под мелодията на Microsoft.

След като колумнистът на Bloomberg Парми Олсън разкри фалшификата, Ориол Винялс, вицепрезидент по проучванията в Гугъл DeepMind, сподели, че подправеното видео илюстрира по какъв начин може да наподобява мултимодалното потребителско преживяване, построено с Gemini. И това беше направено, с цел да въодушеви разработчиците.

Гугъл се опита да си върне облагите на Microsoft в конкуренцията на фондовия пазар и първоначално съумя. Акциите на Гугъл незабавно след демонстрацията на „ умопомрачителното видео “ скочиха с 5%, само че откакто сесията на „ черната PR магия “ беше разкрита, бързо паднаха.

Два американски ИТ колоса се сблъскаха в яростна конкуренция за превъзходство в конкуренцията във въоръжаването с изкуствен интелект, без да обръщат ни минимум внимание на възходящата угриженост по отношение на заканите, подбудени от неконтролираното възстановяване на моделите на изкуствен интелект за цялата човешка цивилизация.

Корпорациите ще завоюват борбата към ИИ, споделя съветският анализатор, някогашен топ управител на IBM, SGI и Cray Research Сергей Карелов: „ Всички страни стартират да схващат заплахата и се пробват да създадат нещо. Но те го вършат с такова забавяне и с такава липса на схващане, че не бих разчитал в действителност на това ".

" Сега има главно битка сред три групи - богати техно-оптимисти, ревностни дуумери [от Doom - злополучие, гибел, край] и огромни корпорации ", съобщи той.

" Струва ми се, че корпорациите в последна сметка ще завоюват измежду тези артисти, тъй като те имат повече пари и въздействие и до момента в света те съставляват най-значимата мощ, стимулирана от доста характерна целева функционалност - максимизиране на техните облаги “, означи ще той в изявление за съветските Средства за масова информация.

Според него даже чатботът ChatGPT не е просто огромен езиков модел, както нормално си показват публицистите, а няколко модела, свързани с доста комплицирани логаритми. Освен това тази система от дълго време не работи в обикновен пинг-понг „ въпрос-отговор “.

Това включва доста комплициран разговор от двете страни, като се употребяват десетки разнообразни техники за генериране на текст. Това към този момент е прекомерно комплициран развой, с цел да бъде сполучливо ръководен и изцяло следен.

„ Единственият ефикасен способ за надзор върху това нещо, което човек има, е просто да изключи компютъра от контакта. Въпреки че натискането на превключвателя също може да не е задоволително ", съобщи той.

" Всичко към този момент е потопено в световната мрежа, която в действителност се трансформира в инфосферата на Земята. Но системата може към този момент да се е копирала милиони пъти в други центрове за данни и вие даже няма да знаете какво може да направи ", сподели Карелов.

През 2015 година известният английски физик Стивън Хокинг предвижда, че „ суперинтелигентният ИИ ще бъде извънредно добър в постигането на задачите си и в случай че тези цели не са съобразени с нашите като хора, ще имаме проблеми “.

Всъщност най-новите модели на ИИ са „ интелигентни сътрудници “, т.е. комплицирани адаптивни системи, които априори се съпротивляват на всяко външно въздействие и от време на време просто постановат волята си даже на своя основател.

И по този начин, неотдавна потребителите започнаха да получават все по-често недоволства, че чатботът ChatGPT AI, основан на модела OpenAI GPT-4, стартира да отхвърля да извършва поръчки, базирайки се на обстоятелството, че не се интересува да оказва помощ на хората.

GPT-4 от ден на ден дава на потребителя единствено част от отговора на дадената задача и по-късно моли потребителя самичък да извърши останалите задания. Понякога ИИ просто ще напише: „ Можете да го извършите сами “. (You can do it yourself).

OpenAI удостовери, че GPT-4 е „ ленив “. Според представители на компанията тази произволи на ИИ се е появила след последните актуализации, показани на 11 ноември.

Според разработчиците това значи, че държанието на чатбота не е разследване от промени, направени от разработчиците, а се образува от единствено себе си. Компанията отбелязва, че " държанието на модела може да бъде непредсказуемо и те се пробват да поправят това. "

Потребителите обаче показват по-широк кръг от проблеми, в това число неверни отговори, които чатботът дава даже на елементарни въпроси, както е на фотографията нагоре.

Още през лятото те оповестиха, че GPT-4 създава нелогични отговори, повече неточности, не желае да работи с авансово възложен подтекст, пренебрегва указания и помни единствено най-скорошния намек.

Изключителен съветски академик, професор в Московския държавен университет. М.В. Ломоносов Сергей Павлович Расторгуев в монографията си „ Целта като криптограма “, написана през 1996 година Криптоанализ на синтетични цели ” уточни: „ Днес за света на компютърните стратегии придобиването на самостоятелност се е трансформирало в приключен факт. ”

„ Когато софтуерният артикул става по-сложен, систематичният програмен продукт стартира да живее собствен личен живот, намирайки цел в себе си “, означи съветският академик, сравнявайки компютърните системи, придобиващи самостоятелност, със средновековния Голем, който, както знаем, умъртви своя основател.

Днешните основатели на кибер голема, в гонене на облаги, подценяват действителните закани на въображението си и отварят избухлива кибернетична кутия на Пандора с непредвидими последствия за цялото човечество.

Ще приказваме за най-новите версии на ИИ, основани от американски корпорации, както и за техните действителни благоприятни условия, в идната публикация от тази серия.

Превод: СМ
Източник: pogled.info


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР