Можем ли да вярваме напълно на суперчатботовете?
Можем ли да имаме вяра на суперчатботовете? Този въпрос задават от The New York Times и разказват по какъв начин Джереми Хауърд, откривател в региона на изкуствения разсъдък, среща 7-годишната си щерка с онлайн чатбот, който направи възторг през последните седмици - ChatGPT. Негов основател е OpenAI, една от най-амбициозните лаборатории за изкуствен интелект в света. Той е подготвен с голяма база данни и може да дава отговор на всевъзможни въпроси от разнообразни сфери.
В резултат на опита Хауърд доближава до едно умозаключение – чатботът може да научи щерка му на доста неща и на едно най-важно - не вярвай на всичко, което ти споделят.
OpenAI е измежду многото компании, университетски лаборатории и самостоятелни откриватели, които работят за основаването на по-усъвършенствани чатботове. Тези системи не могат да беседват тъкмо като човек, само че все по-често стартират да се приближават покрай това равнище. Освен това те могат да извличат и препакетират информация със скорост, която хората в никакъв случай не биха могли да реализират. Реално, суперчатботовете могат да се преглеждат като цифрови асистенти - като Siri или Alexa - които схващат какво търсите, знаят къде да го намерят и ви го дават.
След стартирането на ChatGPT – платформа, употребена към този момент от повече от един милион души - доста специалисти са на мнение, че тези нови чатботове са подготвени да преоткрият и даже да заменят интернет търсачки като Гугъл и Bing. Те могат да дават информация в къси фрази, а не в дълги описи от връзки, да изясняват понятията по понятен за хората метод. И не на последно място, могат да дават обстоятелства, като в това време генерират бизнес проекти, тематики за курсови работи и то от нулата.
Новите чатботове вършат това с цялостна убеденост, само че не постоянно споделят истината и от време на време се провалят даже в простата аритметика, предизвестяват откриватели на изкуствения разсъдък, представени от The New York Times. Според тях защото технологията към момента продължава да се усъвършенства, някои хора биха могли да я употребяват сега, с цел да основават и популяризират лъжи.
Възходът на чатботовете....
Компанията от Сан Франциско има доста амбициозни разработки. ChatGPT, да вземем за пример, е новаторски чатбот, който може да беседва съвсем като човек и има доста повече познания от множеството хора. Системата DALL-E 2 пък ви разрешава да създавате цифрови образни изображения посредством текстово изложение. GPT-3, на собствен ред, може да написа, да спори и даже да кодира.
Наскоро Гугъл също попадна под светлините на прожекторите с разговорния си изкуствен интелект LaMDA (Language Model for Dialogue Applications), откакто инженер на компанията разгласи, че системата е развила разсъдък.
Но Аарон Марголис, експерт по данни, който е един от дребното хора отвън Гугъл, на които е било разрешено да употребяват LaMDA посредством пробно приложение, наречено AI Test Kitchen, слага под въпрос тези благоприятни условия.
Пред NYT той споделя, че е помолил и LaMDA, и ChatGPT да беседват с него, като че ли е Марк Твен. LaMDA разказва среща сред Твен и Леви Щраус и споделя, че писателят е работил за бащата на дънките, до момента в който е живял в Сан Франциско в средата на XIX век. Дори да наподобява правилно на пръв взор, тъй като двамата са обитавали града едновременно, в действителност те в никакъв случай не са работили дружно.
Учените назовават този проблем " илюзия ". Подобно на положителния повествовател, чатботовете имат свойството да вземат наученото и да го претворяват в нещо ново - без да се преценяват с това дали е правилно, счита Марголис.
LaMDA е това, което откривателите на изкуствения разсъдък назовават невронна мрежа - система, моделирана по сходство на тази на невроните в човешкия мозък. Това е същата технология, която превежда сред български и британски език в услуги като Гугъл Translate и разпознава пешеходци, до момента в който самоуправляващите се коли се движат по улиците.
Преди пет години откриватели от Гугъл и лаборатории като OpenAI започнаха да проектират невронни мрежи, които проучват големи количества дигитален текст, в това число книги, публикации в Wikipedia, вести и онлайн чатове. Учените ги назовават " огромни езикови модели ". Идентифицирайки милиарди разнообразни модели на метода, по който хората свързват думи, числа и знаци, тези системи се научиха сами да генерират текст. В последна сметка, технологията към този момент може да имитира написаното от хората и да комбинира разнообразни понятия.
В ChatGPT OpenAI работи за рационализиране на технологията. Тя не се оправя със свободните диалози толкоз добре, колкото LaMDA на Гугъл, само че пък е проектирана да работи по-скоро като цифров помощник. Подобно на LaMDA, ChatGPT е подготвен въз основата на големи размери текст, извлечен от интернет.
....идва с терзания
Но даже основателите на тези новаторски чатботове като OpenAI подчертават, че методът не е идеален. Компанията предизвести тези, които употребяват ChatGPT, че " от време на време може да генерира погрешна информация " и " да основава нездравословни указания или пристрастно наличие ", напомня още New York Times.
Гугъл, Meta и други компании също работят за решаването на проблемите с достоверността. Meta даже неотдавна отстрани онлайн визуализация на своя чатбот Galactica, тъй като той неведнъж генерираше погрешна и пристрастна информация.
Експертите пък от дълго време предизвестяват, че фирмите не управляват на 100% ориста на тези технологии. Системи като ChatGPT, LaMDA и Galactica се основават на хрумвания, научни публикации и компютърен код, които се популяризират свободно от години в интернет. И даже оттук насетне софтуерните колоси да развият технологията с огромни темпове, техните към този момент пуснати в послание системи са необятно публикувани и никой не може да попречи на зловредни играчи да ги употребяват за разпространяване на дезинформация.
Така че, едно мислено!
В резултат на опита Хауърд доближава до едно умозаключение – чатботът може да научи щерка му на доста неща и на едно най-важно - не вярвай на всичко, което ти споделят.
OpenAI е измежду многото компании, университетски лаборатории и самостоятелни откриватели, които работят за основаването на по-усъвършенствани чатботове. Тези системи не могат да беседват тъкмо като човек, само че все по-често стартират да се приближават покрай това равнище. Освен това те могат да извличат и препакетират информация със скорост, която хората в никакъв случай не биха могли да реализират. Реално, суперчатботовете могат да се преглеждат като цифрови асистенти - като Siri или Alexa - които схващат какво търсите, знаят къде да го намерят и ви го дават.
След стартирането на ChatGPT – платформа, употребена към този момент от повече от един милион души - доста специалисти са на мнение, че тези нови чатботове са подготвени да преоткрият и даже да заменят интернет търсачки като Гугъл и Bing. Те могат да дават информация в къси фрази, а не в дълги описи от връзки, да изясняват понятията по понятен за хората метод. И не на последно място, могат да дават обстоятелства, като в това време генерират бизнес проекти, тематики за курсови работи и то от нулата.
Новите чатботове вършат това с цялостна убеденост, само че не постоянно споделят истината и от време на време се провалят даже в простата аритметика, предизвестяват откриватели на изкуствения разсъдък, представени от The New York Times. Според тях защото технологията към момента продължава да се усъвършенства, някои хора биха могли да я употребяват сега, с цел да основават и популяризират лъжи.
Възходът на чатботовете....
Компанията от Сан Франциско има доста амбициозни разработки. ChatGPT, да вземем за пример, е новаторски чатбот, който може да беседва съвсем като човек и има доста повече познания от множеството хора. Системата DALL-E 2 пък ви разрешава да създавате цифрови образни изображения посредством текстово изложение. GPT-3, на собствен ред, може да написа, да спори и даже да кодира.
Наскоро Гугъл също попадна под светлините на прожекторите с разговорния си изкуствен интелект LaMDA (Language Model for Dialogue Applications), откакто инженер на компанията разгласи, че системата е развила разсъдък.
Но Аарон Марголис, експерт по данни, който е един от дребното хора отвън Гугъл, на които е било разрешено да употребяват LaMDA посредством пробно приложение, наречено AI Test Kitchen, слага под въпрос тези благоприятни условия.
Пред NYT той споделя, че е помолил и LaMDA, и ChatGPT да беседват с него, като че ли е Марк Твен. LaMDA разказва среща сред Твен и Леви Щраус и споделя, че писателят е работил за бащата на дънките, до момента в който е живял в Сан Франциско в средата на XIX век. Дори да наподобява правилно на пръв взор, тъй като двамата са обитавали града едновременно, в действителност те в никакъв случай не са работили дружно.
Учените назовават този проблем " илюзия ". Подобно на положителния повествовател, чатботовете имат свойството да вземат наученото и да го претворяват в нещо ново - без да се преценяват с това дали е правилно, счита Марголис.
LaMDA е това, което откривателите на изкуствения разсъдък назовават невронна мрежа - система, моделирана по сходство на тази на невроните в човешкия мозък. Това е същата технология, която превежда сред български и британски език в услуги като Гугъл Translate и разпознава пешеходци, до момента в който самоуправляващите се коли се движат по улиците.
Преди пет години откриватели от Гугъл и лаборатории като OpenAI започнаха да проектират невронни мрежи, които проучват големи количества дигитален текст, в това число книги, публикации в Wikipedia, вести и онлайн чатове. Учените ги назовават " огромни езикови модели ". Идентифицирайки милиарди разнообразни модели на метода, по който хората свързват думи, числа и знаци, тези системи се научиха сами да генерират текст. В последна сметка, технологията към този момент може да имитира написаното от хората и да комбинира разнообразни понятия.
В ChatGPT OpenAI работи за рационализиране на технологията. Тя не се оправя със свободните диалози толкоз добре, колкото LaMDA на Гугъл, само че пък е проектирана да работи по-скоро като цифров помощник. Подобно на LaMDA, ChatGPT е подготвен въз основата на големи размери текст, извлечен от интернет.
....идва с терзания
Но даже основателите на тези новаторски чатботове като OpenAI подчертават, че методът не е идеален. Компанията предизвести тези, които употребяват ChatGPT, че " от време на време може да генерира погрешна информация " и " да основава нездравословни указания или пристрастно наличие ", напомня още New York Times.
Гугъл, Meta и други компании също работят за решаването на проблемите с достоверността. Meta даже неотдавна отстрани онлайн визуализация на своя чатбот Galactica, тъй като той неведнъж генерираше погрешна и пристрастна информация.
Експертите пък от дълго време предизвестяват, че фирмите не управляват на 100% ориста на тези технологии. Системи като ChatGPT, LaMDA и Galactica се основават на хрумвания, научни публикации и компютърен код, които се популяризират свободно от години в интернет. И даже оттук насетне софтуерните колоси да развият технологията с огромни темпове, техните към този момент пуснати в послание системи са необятно публикувани и никой не може да попречи на зловредни играчи да ги употребяват за разпространяване на дезинформация.
Така че, едно мислено!
Източник: profit.bg
КОМЕНТАРИ




