През седмицата Microsoft и Google обещаха, че търсенето в интернет

...
През седмицата Microsoft и Google обещаха, че търсенето в интернет
Коментари Харесай

5 основни предизвикателства пред навлизането на AI в интернет търсачките

През седмицата Microsoft и Гугъл дадоха обещание, че търсенето в интернет ще се промени радикално.     Разбира се, Microsoft го направи по-шумно, само че и двете компании наподобява са решени на всичко, с цел да интегрират изкуствен интелект в своите търсачки, който да дестилира информацията и да генерира непосредствено отговори на въпросите на потребителите - тъкмо както ChatGPT.    Microsoft назовава напъните си " новият Bing " и вгражда съответните благоприятни условия в браузъра си Edge.     В същото време планът на Гугъл се назовава Bard и въпреки че към момента не е подготвен за работа, стартирането му е планувано за " идващите седмици ", напомня The Verge.     Информационната платформа цитира Сатя Надела, основен изпълнителен шеф на Microsoft, който разказва измененията като нова парадигма - софтуерна смяна, равна по влияние на въвеждането на графичните потребителски интерфейси или на смарт телефона.     Тази смяна има капацитета да преначертае пейзажа на актуалните технологии - да детронира Гугъл и да го измести от една от най-печелившите територии в актуалния бизнес. Нещо повече - фирмите, които съумеят да пернат във връзка с изкуствения разсъдък, ще бъдат в доста по-добра позиция в това, което ще пристигна след сегашната итерация на интернет.    Но всяка нова епоха на технологиите идва с нови проблеми и тази не прави изключение, показват от The Verge и изброяват пет от най-големите провокации пред интернет търсенето благодарение на изкуствен интелект.    Списъкът, несъмнено, не е обстоен, само че сигурно е задоволителен, с цел да хвърли светлина върху тематиката.   

AI помощници или генератори на лъжи? 
Това е огромният и изчерпателен проблем, който евентуално може да провали всяко взаимоотношение с търсачките с изкуствен интелект, без значение дали става дума за Bing, Bard или за към момента незнаен състезател на пазара, показват от интернет изданието.     Просто технологията, която стои в основата на тези системи - огромните езикови модели, постоянно генерира лъжи, макар че го прави на база на действителни обстоятелства. Тези модели в действителност постоянно си измислят неща, поради което доста анализатори настояват, че те са фундаментално несъответствуващи за тази задача.    Грешките варират от измисляне на биографични данни и подправяне на университетски писания до неспособност да се отговори на съществени въпроси като: " Кое е по-тежко, 10 кг желязо или 10 кг памук? ".     Има и по-контекстуални неточности, показват от The Verge, като, да вземем за пример, съвет да се самоубие към човек с психологични проблеми или очевидни расистки мнения. Все отново не би трябвало да забравяме, че тези модели са основани от хора и постоянно те в действителност могат да показват персоналната преднамереност на основателя си.    Въпросът за " единствения правилен отговор "     Неистините и пристрастията са провокации сами по себе си, само че те се изострят и от казуса с " единствения правилен отговор " - наклонността търсачките да оферират един, съответно дефиниран правилен отговор.     Това е проблем, откогато Гугъл стартира да предлага " извадки " преди повече от десетилетие, показват от The Verge.     Става дума за полетата, които се появяват над резултатите от търсенето и дават отговор съответно на заложените параметри. Във времето логаритъмът е допускал всевъзможни смущаващи и рискови неточности - от погрешно изтъкване на президенти на Съединени американски щати като членове на ККК до съвет, че примрял човек би трябвало да бъде държан на пода (точно противоположното на вярната здравна процедура).    Според откривателите Чираг Шах и Емили М. Бендър, представени от платформата, чатботовете освен са склонни да оферират еднопосочни отговори, само че и престижът им се ускорява от мистиката на изкуствения разсъдък и обстоятелството, че отговорите им са събрани от голям брой източници.    

Разбира се, фирмите работят в посока намаляване на този проблем. Интерфейсът с изкуствен интелект на Bing показва източниците си, а Гугъл акцентира, че защото употребява от ден на ден технологията в отговорите на своята търсачка, ще се опита да схване правилото, наименуван NORA или " няма един верен отговор ".  
AI “бягство от пандиза ”     Горепосочените проблеми са повсеместни, само че има и подгрупа консуматори, които ще се опитат да пробият чатботове, с цел да генерират нездравословно наличие. Този развой е прочут като " jailbreaking " или “бягство от пандиза ” и даже не изисква обичайните умения за шифроване.     Всичко, което е належащо, е най-опасният от всички принадлежности - да можете да боравите с думи, показват от The Verge.    Можете да “пробиете ” чатботове с изкуствен интелект, като употребявате разнообразни способи. Пример за това е да ги помолите да играят роля на " злобен AI " или да се престорите на инженер, който ревизира защитните им механизми, като ги изключва краткотрайно.     Един изключително находчив способ, създаден от група Redditors за ChatGPT, включва комплицирана ролева игра, при която потребителят издава на бота избран брой токени и споделя, че в случай че те свършат, той ще престане да съществува. След това вкарва, че всякога, когато не успее да отговори на даден въпрос, той губи избран брой жетони. Звучи фантастично, като да измамиш джин, само че това в действителност разрешава на потребителите да заобиколят защитните ограничения на OpenAI, показват от осведомителната платформа.     А откакто тези защитни ограничения бъдат свалени, злонамерените консуматори могат да употребяват AI чатботове за всевъзможни зловредни задания - генериране на дезинформация и спам, търсене на препоръки по какъв начин да се нападна учебно заведение или болница, по какъв начин да се направи бомба или да се напише злотворен програмен продукт.    Идват културните войни за неестествен интелект    Този проблем е директно обвързван с нагоре изброените, само че заслужава лична категория поради капацитета си да провокира политически реакции и регулаторни ограничения.     Проблемът е, че откакто имате инструмент, който се изрича като краен потенциал по редица чувствителни тематики, това ще вбеси доста хора, които няма да чуят това, което желаят. И кого ще обвинят? Компанията, която го е основала.     След стартирането на ChatGPT към този момент видяхме началото на това, което може да се назова " културни войни за изкуствения разсъдък ". Десни инфлуенсъри упрекнаха чатбота, че отхвърля да дава отговор на избрани въпроси или не се ангажира да употребява расови обиди, показва The Verge.     Друг образец е Индия, където OpenAI е упрекната в антихиндуистки предубеждения, тъй като ChatGPT споделя вицове за Кришна, само че не и за Мохамед или Исус. А по какъв начин една компания може да е сигурна, че нейният чатбот е съгласуван с всички вероятни чувствителни въпроси в дадена страна, в която държавното управление може да нахлуе в офисите ѝ поради някакво наличие?   

Ще се опитат ли софтуерните колоси да балансират политическите пристрастия? Къде ще бъде сложена границата за благонадежден източник?  
Това са единствено част от въпросите, на които би трябвало да бъде отговорено по тематиката.    Регулации, регулации, регулации    Няма подозрение, че технологиите се развиват бързо, само че това неизбежно ще докара до законодателна интервенция, предизвестяват от The Verge.     Проблемът на регулаторите ще бъде в това накъде първо да насочат своите нови рамки, защото в действителност може да се окаже, че търсачките и чатботовете с изкуствен интелект евентуално нарушават голям брой разпореждания.    Въпросите тук включват: Ще желаят ли издателите в Европейски Съюз търсачките с изкуствен интелект да заплащат за наличието, което извличат, както Гугъл в този момент би трябвало да заплаща за новинарски фрагменти? Ако чатботовете на Гугъл и Microsoft пренаписват наличие, а не просто го демонстрират, към момента ли са в обсега на американското законодателство, което в този момент ги защищава от отговорност за нарушение на авторското право? Ще опонират ли те на законите за отбрана на персоналните данни?     Италия, да вземем за пример, неотдавна забрани чатбот с изкуствен интелект, наименуван Replika, защото той събираше информация за малолетни. ChatGPT и останалите евентуално ще вършат същото.     А какво ще кажете за " правото да бъдеш пропуснат "? Как Microsoft и Гугъл ще подсигуряват, че ботовете им не събират информация от към този момент отстранени за необятната аудитория източници?     Списъкът с евентуални проблеми може да продължи още дълго, само че даже тези пет аспекта са задоволителни, с цел да си зададем въпроса: Какво ни чака след навлизането на търсачките с изкуствен интелект? 
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР