Годината е 2018-а, когато иновативната компания за тежкотоварни превози Nikola

...
Годината е 2018-а, когато иновативната компания за тежкотоварни превози Nikola
Коментари Харесай

Ще унищожи ли AI човечеството и човечността?

Годината е 2018-а, когато новаторската компания за тежкотоварни транспорти Nikola пуска промо клип на своя камион на водород, на който се вижда по какъв начин той се движи бързо по двулентов път в пустинята. Всички са впечатлени от достижението на софтуерната компания, до момента в който през 2020 година не излиза наяве, че сниманото в рекламата е на процедура имитация.

Камионът Nikola One в действителност не е бил кадърен да се движи на личен ход, само че създателят на компанията Тревър Милтън взема решение все пак да го покаже в деяние. Как е сниман движещия се камион ли? Качен е на рид и пуснат по инерция да се спуска по ската надолу. А за какво му е въобще на Тревър да прави това ли? Част от отговора се крие в големите упования към новаторските стартъпи и направените от самите тях гръмки обещания.

Подценили оставащата работа по транспортното средство, от Nikola още през 2016 година дават поръчка, че камионът на водород е изцяло функционален. Година по-късно вложителите към този момент им дишат във врата неудържимо. И по този начин се стига до прибързаната реклама.

Представете си какво би станало, в случай че фирмите за изкуствен интелект – тази митично звучаща и плашеща толкоз доста хора технология – стартират да работят също толкоз преждевременно и неетично, отбелязва Ричард Фостър от организацията „ Морал и познания в AI “ (MKAI). В последна сметка камионът няма по какъв начин да бъде пуснат на пазара, без да може да се движи. Затова пък за системите, основани на AI – може, защото техните недостатъци са надалеч по-трудно откриваеми.

Последиците обаче биха могли да обиден действително хората. Достатъчно е дадем образец с логаритъм, оценяващ кандидатури за работа. Ако той е захранен с непълни и основани на предубеждения данни, с решенията си да отсее най-хубавите, съгласно него, може да пресече пътя на по-подходящи чиновници – обричайки освен тяхната кариера, само че и евентуалните изгоди за работодателя.

Именно провокациите пред етиката и изкуствения разсъдък разискаха панелистите във втория ден на конференцията AI N’ CYBER 2022, проведена от Economic.bg и Дигитална национална коалиция, в партньорство с НАТО, Европейската капиталова банка и Фондация „ Фридрих Аденауер “.
Ще унищожи ли AI човечеството и човечността?
Свързаните с изкуствения разсъдък страхове постоянно биват експлоатирани в медийното пространство и варират от прогнозите, че роботите ще лишават работата на хората до още по-апокалиптичните, че ще завладяват и даже унищожат човечеството. Учените и специалистите в AI сферата акцентират със успокоение, че опасенията са мощно пресилени, а антиутопичните сюжети – нереалност, най-млакото тъй като развиването на AI като технология е доста надалеч от зрялост.

Един от техническите термини за изкуствен интелект е „ универсални функционални проксиматори “. Представяте ли си ние в този момент да си приказваме дали универсалните функционални проксиматори ще завладяват света? Най-вероятно няма да си приказваме за това и в този ред на мисли – това е просто технология, която се употребява от човечеството и хората и в действителност таман тук идват нравственос и морала, които обрисуват защо и по какъв начин може да се употребява AI “, означи Светлин Пенков, съосновател и основен изпълнителен шеф на Efemarai и член на управителния съвет на AI Cluster Bulgaria.

Думите му илюстрират една разумна взаимозависимост. Хората сами обличат технологията в дефиниции, близки до личните им показа за това по какъв начин работи тя. В този ред на мисли я натоварват и със личните си страхове. Пак те стоят и в основата на нейното приложение – в техните ръце и мозъци е и предизвикването да я създадат, простичко казано, добра или неприятна.

Интересното при технологиите с изкуствен интелект е, че те са първите, в които етиката бива приоритизирана толкоз рано.

При интернет това се случи доста по-късно “, уточни Светлин Пенков и посочи, че Европа е мястото, където този въпрос е комплициран на челно място.

Той разяснява, че сега в сектора се натъртва на вероятните последствия от стартирането на една система.

AI звучи малко митично, само че … образоваме хората по какъв начин да мислят за следствията, до които може да докара технологията. “

Едно от огромните провокации е събирането и обработването на данни, с които да се захранят машините. Именно те са в основата на работата на изкуствения разсъдък и от тях зависи дали един логаритъм няма да работи предубедено или даже зловредно. Както постоянно, правото е в догонваща позиция, а в Европейски Съюз няма един закон, който да контролира методите за събиране и обработка на данни особено за потреблението им в AI системи.

„ Говорейки за AI и неговите приложения в живота, няма повсеместен закон, който да споделя: Ето по този начин обработват данните “, разяснява Георги Димитров, професор по ИКТ право и създател на Фондация „ Право и интернет “.

А даже и да има нормативна уредба, от време на време и тя не се ползва дейно. Д-р Моника Манолова, специалист по AI нравственос, даде образец с другояче строгия GDPR. „ GDPR е хубаво нещо, само че не се съблюдава от някои от огромните корпорации. Изтрити имейли и информация отпреди 10 – 15 години може да се екстрактнат от масивите на Гугъл “, уточни тя.

Един заличен имейл не е заличен изцяло, а правото да бъдеш пропуснат не всеки път се съблюдава. “

Според Васил Шивачев от Identrics отговорността постоянно би трябвало да се носи от хората, ангажирани в създаването на AI – без значение дали са събирали или обработвали данни. „ Хората би трябвало да носят отговорността, с цел да се избегне сивата зона. Ролята на хората в ръководството на тези процеси е да чуват какво желае обществото. “

Статистиката красноречиво акцентира някои от пробойните в подтекста на философията, че зад всяка AI система стоят хора. Така да вземем за пример неравенството сред половете от позиция на заетите в сферата е 11% към 89% в интерес на мъжката част от популацията. И това е единствено един аспект от неналичието на многообразие. А такова – освен полово – е нужно, с цел да може да се подсигурява, че предварителните проучвания ще са на нужното равнище, с цел да предотвратят отрицателните последици от използването на логаритми.

„ Много е мъчно да забележим следствията от потреблението на AI, би трябвало ни разнообразно мислене “, споделя Ричард Фостър и цитира статистика на Gartner, съгласно която 88% от плановете с AI се провалят и 44% от тези провали са по етични аргументи.

AI може да е основан с доста положителни планове, само че и пътят към пъкъла е застлан също с такива “, сподели Моника Манолова, обобщавайки нуждата от фокус върху етиката и морала при построяването на системи с изкуствен интелект.

Ако обявата ви е била забавна и потребна, не пропускайте да ни последвате в обществените мрежи Фейсбук, LinkedIn, Twitter и Instagram, както и да се запишете за E-mail бюлетина ни.
Източник: economic.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР