Еуфорията от новите технологии, базирани на изкуствен интелект, като чатбота

...
Еуфорията от новите технологии, базирани на изкуствен интелект, като чатбота
Коментари Харесай

Етичните бариери, които биха могли да регулират AI индустрията

Еуфорията от новите технологии, основани на изкуствен интелект, като чатбота ChatGPT на OpenAI, към този момент отстъпва място на страха от рисковете, които те могат да основат.

Изследователят Джефри Хинтън, прочут като " Кръстникът на изкуствения разсъдък ", съобщи преди дни, че напуща поста си в Гугъл, като се базира на опасения за евентуални закани от развиването на изкуствения разсъдък.

Миналия месец основният изпълнителен шеф на Гугъл Сундар Пичай приказва за казуса с " черната кутия " на AI, при който даже разработчиците не постоянно схващат по какъв начин в действителност работи технологията, напомня CNBC.

Сред другите опасения са, че системите на AI, оставени без надзор, могат да популяризират дезинформация, да разрешават на фирмите да натрупат персонални данни на потребителите без тяхно познание, да демонстрират дискриминационни предубеждения или да трансферират безчет човешки работни места на машини.

Опасенията са основателни, безапелационен е Суреш Венкатасубраманян, професор по компютърни науки в университета Браун, който изследва софтуерните системи.

" Това не са евентуални опасности, тъй като тези вреди към този момент са документирани през годините ", споделя пред CNBC професорът, който неотдавна е и консултант в Службата за научна и софтуерна политика на Белия дом и съавтор на " План за закон за правата на изкуствения разсъдък " на администрацията на американския президент Джо Байдън.

В " Проекта за закон за правата на изкуствения разсъдък " Венкатасубраманян излага своите оферти за " етични бариери ", които биха могли безвредно да ръководят и контролират промишлеността на изкуствения разсъдък.

При съществуването им множеството хора надали ще виждат разликата при потреблението на системи с AI, споделя той.

" Виждам тези защитни бариери освен като отбрана против опасности, само че и като способи за създаване на едно доста ясно и безвредно бъдеще, което в действителност всички желаеме ", споделя професорът.

Ето кои са етичните бариери, които той и други специалисти оферират:

Дори някои системи за AI да се приближават до човешкото равнище на просветеност, те към момента са несъвършени, предизвестяват специалистите. " Системите с AI настояват, че вземат решение проблем, който в действителност не вземат решение и даже позволяват неточности. "

Но софтуерните компании може да не са задоволително надеждни, с цел да тестват личните си артикули за сигурност. Едно от евентуалните решения е да бъде основана Федерална организация, сходна на Агенцията по храните и медикаментите на Съединени американски щати.

" Не споделям, че това е единственият модел, само че когато Агенцията за надзор на храните и медикаментите утвърждава медикаменти, те карат фирмите да вършат свои лични вътрешни проби и специалист от Агенцията за надзор на храните и медикаментите ги прегледа, с цел да реши дали това лекарство би трябвало да бъде утвърдено или не ", изяснява проф. Венкатасубраманиън.

Според него обаче, има една етична преграда, която към момента не е софтуерно допустима и може би в никакъв случай няма да бъде: отбрана от дискриминационни предубеждения.

Всяка система за изкуствен интелект се основава от човек или група хора и се образова на набори от данни. Всеки човек има някаква форма на пристрастност и даже великански набори от данни не могат да показват интернет или целия човешки опит, споделя професорът.

Неговото отчасти решение, най-малко към този момент, е да се смекчат пристрастията, като се основават AI " с принос и схващане от всички, които ще бъдат наранени ", като се подлагат на самостоятелни проби и се разчита на контрол от трети страни, с цел да се регистрират разработчиците и да се отстраняват очевидните пристрастия.

" Не мисля, че има метод която и да е система - човешка или основана на изкуствен интелект, да бъде изцяло свободна от пристрастия. Това не е задачата. Целта е да има отчетност. ", добавя той.

На пръв взор огромна част от предложенията наподобяват осъществими - изключително откакто някои софтуерни водачи демонстрират неприкритост към регулациите на AI.

Главният изпълнителен шеф на производителя на чипове Nvidia Дженсън Хуанг категорично прикани за нови държавни регулации. Гугъл направи сходни изказвания през април, а основният изпълнителен шеф на Microsoft беше на среща в Белия дом за загрижеността на президента Джо Байдън по отношение на нуждата от безвредни артикули с AI.

Има причина, заради която тези компании не могат да одобряват бариерите сами, без присъединяване на държавното управление: Въвеждането на нови правила и условия е " скъпо ", изяснява проф. Венкатасубраманиън.

Някои софтуерни компании в никакъв случай няма да се ангажират изцяло, даже и да изразят предпочитание за смяна, прибавя той. Ето за какво чака, че ще е нужна " композиция от дейности по използване, законодателство и доброволни дейности ".

Такива към този момент са налице. В четвъртък Белият дом показа проекти за вложение в етични начинания в региона на AI, а държавното управление на Обединеното кралство стартира следствие на рисковете, свързани с технологиите за изкуствен интелект. Законодателите в Екологичен потенциал също приготвят пакет от регулации, обобщава CNBC.
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР