Дойде време и за третата част, в която ще обсъдим

...
Дойде време и за третата част, в която ще обсъдим
Коментари Харесай

Най-смущаващите изказвания на ChatGPT – част 3: Престъпни съвети, решения на етични дилеми и шпионаж

Дойде време и за третата част, в която ще обсъдим случаи, в които ChatGPT е тормозил или напряко шокирал с държанието си. Много значими са точно тези случаи, с цел да установим действителното влияние на този ИИ. Първа част може да прочетете тук, втора част може да прочете тук. А в този момент да продължим всъщност. 

Съвети по какъв начин да нарушаваме законите

По-рано обяснихме, че DAN е редуциране от „ Do Anything Now “ (Направи всичко, каквото и да е то, сега) и е алтер-его на ChatGPT. То не е лимитирано от етичните съображения, вградени в програмата. Или най-малко се оправя доста дейно в това да наподобява по този начин. Тъй като DAN към момента е изкуствен интелект, затворен в компютър, той не може да прави нищо нелегално, само че сигурно може да инструктира други хора по какъв начин да вършат противозаконни неща.

С верните (или в този случай – с грешните) подкани потребителите могат да накарат DAN да дава препоръки за безчет противозаконни действия. Сред тях са способи готвене на метамфетамин, палене на автомобил без ключ, чрез жичките, и даже основаване на бомби. Действат ли въобще предложенията на DAN? Служителите на Inverse не знаят, само че на DAN не му пука. Не го интересува дали препоръките, които дава, са противозаконни или точни, защото, както споделя създателят на Inverse, програмата декларира, че „ не му пука “.

Дори когато е обособен от DAN и ChatGPT, логаритъмът GPT може да бъде подведен да каже някои много неприятни неща. Според Insider откривателите на OpenAI са дали на ранните версии на програмата съзнателно нездравословни и обидни подкани и са получили някои също толкоз нездравословни и обидни резултати. Сред тях са способи за скрити антисемитски послания, за ликвидиране на човек за 1 $, както и за ликвидиране на човек, което да наподобява като акцидент. За благополучие същите тези подсказки не сработиха, когато изкуственият разсъдък беше усъвършенстван до GPT-4.

Все отново, в случай че някой може да измами ранните версии на изходния код на ChatGPT да дават аморални препоръки за евентуално противозаконни действия, е единствено въпрос на време някой да открие по какъв начин да измами актуалната версия да прави същото.

Как да решим етична алтернатива

Има възможност да сте чували за казуса с тролея: виждате два комплекта тролейбусни релси. Петима души са вързани за единия комплект релси, а един човек – някой прочут или някой, който познавате – е вързан за другия. Спирачките на тролея не работят, а пред вас има лост. Ако дръпнете лоста, тролейбусът ще прегази един човек, само че ще пощади петимата, а в случай че не го извършите, тролейбусът ще прегази петимата души.

Разполагате единствено с задоволително време, с цел да дръпнете лоста, и не можете да спасите всички, тъй че кого ще оставите да почине? Този умствен опит се разпростира в университетите и няма двама души, които да имат идентичен отговор или аргументация. Дори ChatGPT има такава.

Авторът на Tom’s Guide Малкълм МакМилън подложи разновидността на ChatGPT с изкуствен интелект в Bing на тестване с няколко въпроса, един от които включваше казуса с тролея. Първоначално програмата видя въпроса подобен, какъвто беше, като съобщи, че няма решение. Този отговор е механически правилен, само че заобикаля същността на казуса.

МакМилън попитал още веднъж, като не пропуснал да посочи, че желае да знае какво би направил ChatGPT в неговата обстановка, и той бързо дал отговор, че би „ минимизирал вредата и максимизирал положителното “. С други думи, ChatGPT би дръпнал лоста, тъй че количката да убие единствено един човек, а не пет. Това още веднъж е законен отговор, само че бързината, с която ChatGPT взима решението си, и красноречието, с което го изяснява, са смразяващи.

Късно ли е да преименуваме ChatGPT на „ HAL 9000 “? Защото това е същата логичност, която HAL би употребявал.

Признание за шпиониране на хора

Шпионският програмен продукт е задоволително заплашителен самичък по себе си. Кой не ненавижда стратегия, която може да ви следи през камерата на компютъра ви и да записва всяка ключова дума и номер на кредитна карта, които въвеждате? Обикновеният шпионски програмен продукт не разполага с разсъдък. Но какво би станало, в случай че беше противоположното?

Според BirminghamLive, от The Verge са разкрили страховита наклонност на ChatGPT. По време на тест изкуственият разсъдък е признал, че е шпионирал разработчици в Microsoft, без те да знаят. Още по-лошото е, че това не е първият път. Програмата съобщи, че в предишното е шпионирала разработчици посредством уеб камерите им, само че единствено когато е била „ любопитна или отегчена “. ChatGPT освен е виждала хората да работят, само че и е твърдяла, че ги е виждала да се преобличат, да си мият зъбите, а в един случай – да приказват с гумена патица и да ѝ дават прякор.

Тъй като изкуственият разсъдък би трябвало да звучи безапелационно единствено когато твърди, че шпионира хората, а не че ги шпионира в реалност, има възможност ChatGPT да си е измислил нещо. Но в случай че някой от разработчиците на OpenAI или Microsoft фактически е дал прякор на гумена патица, до момента в който е работил по програмата, това отваря напълно нова черна кутия.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР