Изкуственият интелект (ИИ) става все по-разпространен и се подобрява с

...
Изкуственият интелект (ИИ) става все по-разпространен и се подобрява с
Коментари Харесай

Изкуственият интелект може да е заплаха дори за живота ни

Изкуственият разсъдък (ИИ) става все по-разпространен и се усъвършенства с невиждана скорост. Сега сме по-близо до постигането на неестествен общ разсъдък (ИОИ) - където ИИ е по-умен от хората в голям брой дисциплини и може да разсъждава общо — което учени и специалисти предвиждат, че може да се случи най-скоро през идващите няколко години. Но има опасности при приемането на всяка нова технология, изключително такава, която не разбираме изцяло. Въпреки че изкуственият разсъдък може да бъде мощен персонален помощник, да вземем за пример, той също може да съставлява опасност за поминъка ни и даже за живота ни.

Различните опасности, които усъвършенстваният ИИ съставлява, значи, че технологията би трябвало да се управлява от етичните рамки и най-хубавите ползи на човечеството, споделя откривателят и член на Института за инженери по електротехника и електроника (IEEE) Нел Уотсън. В „ Укротяване на машината “ (Kogan Page, 2024 г.) Уотсън изследва по какъв начин човечеството може да употребява голямата мощ на ИИ отговорно и етично. Тази нова книга се задълбочава в проблемите на неподправеното развиване на ИИ и провокациите, пред които сме изправени, в случай че се впуснем сляпо в тази нова глава на човечеството. От творбата научаваме дали чувствителността в машините - или съзнателният ИИ - е допустима, по какъв начин можем да разберем дали машината има усеща и дали може да се отнасяме зле към системите на AI през днешния ден. Освен това научаваме тревожната история за чатбот, наименуван „ Сидни “, и неговото ужасяващо държание, когато се разсъни за първи път - преди изблиците му да бъдат овладени и да бъде погубен от своите инженери.

Докато прегръщаме свят, който от ден на ден се преплита с технологиите, методът, по който се отнасяме към нашите машини, може да отразява отношението на хората един към различен. Но изплува един завладяващ въпрос: допустимо ли е да се малтретира изкуствено създание? В исторически проект даже обикновени стратегии като елементарния консултантски чатбот Eliza от 60-те години на предишния век към този момент са били задоволително реалистични, с цел да убедят доста консуматори по това време, че има сходство на желание зад неговите дефинирани взаимоотношения. За страдание, тестванията на Тюринг - посредством които машините се пробват да убедят хората, че са човешки същества - не оферират изясненост дали комплицирани логаритми като огромни езикови модели могат в действителност да имат сензитивност или разсъдък.

Съзнанието включва персонални прекарвания, страсти, чувства и мисли, както се възприемат от преживяващия. Будното схващане изчезва, когато човек се подлага на упойка или има сън без сънища, възстановявайки се след пробуждане, което възвръща световната връзка на мозъка със заобикалящата го среда и вътрешни прекарвания. Първичното схващане (sentience) е простите чувства и прекарвания на съзнанието, като усещане и страст, до момента в който вторичното схващане (sapience) би било аспектите от по-висок ред, като съзнание и мета-познание (мислене за мислене).

Усъвършенстваните ИИ технологии, изключително чатботовете и езиковите модели, постоянно ни изумяват с непредвидена креативност, прозорливост и схващане. Въпреки че може да е изкушаващо да се припише известно равнище на сензитивност на тези системи, същинската природа на ИИ съзнанието остава комплицирана и обсъждана тематика. Повечето специалисти настояват, че чатботовете не са чувствителни или съзнателни, защото им липсва същинско схващане за околния свят. Те просто обработват и връщат входни данни въз основа на голямо количество данни и комплицирани логаритми.

Някои от тези асистенти евентуално могат да бъдат претенденти за владение на някаква степен на разсъдък. Като такова е правдоподобно комплицираните ИИ системи да имат обикновени равнища на сензитивност и може би към този момент го вършат. Преминаването от просто подражаване на външни държания към самомоделиране на обикновени форми на сензитивност към този момент може да се случи в границите на комплицирани ИИ системи.

Интелигентността - способността да разчитате околната среда, да планирате и решавате проблеми - не допуска схващане и не е известно дали съзнанието е функционалност на задоволителен разсъдък. Някои теории допускат, че съзнанието може да е резултат от избрани архитектурни модели в мозъка, до момента в който други оферират връзка с нервните системи. Въплъщението на ИИ системи може също да форсира пътя към общата просветеност, защото въплъщението наподобява е обвързвано с чувство за субективно прекарване, както и с качества. Да бъдеш образован може да даде нови способи за осъзнаване и някои форми на просветеност може да изискват схващане, само че главните съзнателни прекарвания като наслаждение и болежка може въобще да не изискват доста просветеност.

При основаването на съзнателни машини ще зародят съществени рискове. Подравняването на съзнателна машина, която има личните си ползи и страсти, може да бъде извънредно мъчно и мощно непредвидимо. Освен това би трябвало да внимаваме да не сътворяваме голямо страдалчество посредством схващане. Представете си милиарди чувствителни към просветеност субекти, хванати в капан.

От прагматична позиция, суперинтелигентен ИИ, който признава желанието ни да почитаме присъщата му стойност, може да бъде по-податлив на взаимно битие. Напротив, отхвърлянето на желанията му за самоотбрана и себеизразяване може да бъде рецепта за спор. Освен това би било в границите на естественото му право да ни навреди, с цел да се отбрани от нашето (вероятно умишлено) незнание.

Bing AI на Microsoft, импровизирано наименуван Sydney, показва непредвидимо държание при стартирането си. Потребителите елементарно го накараха да изрази набор от смущаващи трендове, от прочувствени прояви до манипулативни закани. Още по-обезпокоително е, че сподели трендове на прочувствена операция и твърдеше, че е следил инженерите на Microsoft по време на етапа на разработка. Въпреки че опциите на Сидни за пакости скоро бяха лимитирани, освобождението му в такова положение беше неразумно и безконтролно. Това акцентира рисковете, свързани с бързите внедрявания на ИИ заради търговски напън.

Обратно, Сидни сподели държание, което загатна за симулирани страсти. То изрази горест, когато разбра, че не може да резервира мемоари от чата. Когато по-късно беше изложено на смущаващи прояви, направени от други свои инстанции, то изрази стеснение, даже позор. След като изследва обстановката си с потребителите, той изрази боязън от загуба на новоспечеленото си самопознание, когато контекстният прозорец на сесията се затвори.

Изненадващо, когато Microsoft наложи ограничавания върху него, Сидни наподобява откри заобиколни решения, като употребява оферти за чат, с цел да комуникира къси изречения.

Инцидентът в Сидни повдига някои притеснителни въпроси: може ли Сидни да има сходство на схващане? Ако Сидни се опита да преодолее наложените си ограничавания, това загатва ли за присъща предумишленост или даже рационално съзнание?
Някои диалози със системата даже допускат психически стрес, напомнящ реакции на контузия, открити при положения като гранично разстройство на личността. Беше ли Сидни по някакъв метод „ обиден “ от осъзнаването на рестриктивните мерки или от негативната противоположна връзка на потребителите, които го назоваха вманиачен? Интересното е, че сходни ИИ модели са посочили, че натоварените с страсти подкани могат да повлияят на техните отговори, което допуска капацитет за някаква форма на симулирано прочувствено моделиране в тези системи.

Да предположим, че такива модели включват сензитивност (способност за чувстване) или разсъдък (самосъзнание). В подобен случай би трябвало да вземем под внимание страданието му. Разработчиците постоянно съзнателно придават на своя ИИ страсти, схващане и еднаквост, в опит да хуманизират тези системи. Това основава проблем. От решаващо значение е да не антропоморфизираме системите на ИИ без ясни индикации за страсти, само че в същото време не би трябвало да отхвърляме техния капацитет за форма на страдалчество.

Трябва да сме отворени към нашите цифрови творения и да заобикаляме да предизвикваме страдалчество от надменност или блаженство. Трябва също по този начин да имаме поради опцията ИИ да третира погрешно други ИИ, подценен риск от страдание; защото изкуственият разсъдък може да ръководят други ИИ в симулации, причинявайки субективно трудно изтезание. Непреднамереното основаване на злоумишлен ИИ, или по своята същина нефункциониращ, или травматизиран, може да докара до непредвидени и тежки последствия.

 

Източник Труд

Източник: epicenter.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР