Блестящи метални кълба, пръснати в градове по целия свят привличат

...
Блестящи метални кълба, пръснати в градове по целия свят привличат
Коментари Харесай

AI и крипто в едно: Или утопиите, за които трябва да сме нащрек днес

Блестящи железни кълба, пръснати в градове по целия свят притеглят хорските погледи от месеци насам. Създателите им ги афишират за революционно решение за цифрова еднаквост и дават обещание нова епоха на финансова непоклатимост. Критиците ги дефинират като антиутопични и експлоататорски. Да, за WorldCoin става дума – планът за криптографски изкуствен интелект на създателя на OpenAI Сам Алтман.

Замислен да отстрани един път вечно подозренията дали от другата страна на екрана стои човек или бот, WorldCoin предлага решение за цифрова еднаквост посредством сканиране на ириса. Но дружно с това отваря доста етични въпроси, един от които е обвързван с примамливото заричане за повсеместен базов приход посредством приемане на дял от едноименната криптовалута WorldCoin – право, което всеки човек ще има по дифолт просто тъй като е човек.

Ще дава закрепени пари на хора, които да вземем за пример ще бъдат афектирани от навлизането на изкуствения разсъдък в нашия живот. Аз мисля, че това е един от методите, които вероятно би бил добър при загуба на доста работни места. Проблемът е, че в подмяна на този приход се сканира окото и той се обвързва с електронна еднаквост “, разяснява доктор Моника Манолова.

WorldCoin е единствено свеж образец за купищата въпроси, които напредничавите технологии с изкуствен интелект и комбинацията им с други такива, както в тази ситуация с блокчейн, излизат на повърхността на публичния дискурс.

Кога новаторските концепции могат да излязат от надзор? За какво би трябвало да внимаваме, с цел да не сложим основите на бъдещи антиутопични сюжети? Какви провокации се раждат при комбинирането технологии като блокчейн и AI в едно?

Тези и още доста други любопитни въпроси ще бъдат дискутирани в тематичния панел “Ethics and Regulations of AI: Building a Responsible AI Framework in times of fast-evolving innovations ”, който Моника Манолова ще модерира по време на интернационалната конференция.

За поредна година събитието ще събере на една сцена в София международни топ специалисти в областта на изкуствения разсъдък и киберсигурността. Форумът се провежда от Дигитална национална коалиция в партньорство с economic.bg и Фондация „ Конрад Аденауер “. И ще се организира на 26 октомври – по традиция в зала „ Джон Атанасов “ в София Тех Парк. Актуална информация за събитието може да намерите на уеб страницата, във Facebook и LinkedIn. 
Коя е Моника Манолова?


Моника Манолова е лекар по географски осведомителни системи (ГИС) и професионално се занимава с телекомуникации. С времето осъзнава, че нейната просвета е нишов вход за влизане в света на изкуствения разсъдък.

Географските изкуствени интелекти са свързани с обработка на сателитни изображения, които са доста тежки, водят се big data и единственият метод да бъдат дейно обработвани е посредством машинно образование и разнообразни форми на AI. “

Моника Манолова работи с Morality and knowledge in AI (MKAI), една от най-големите общности по нравственос в изкуствения разсъдък в света, с които развива разнообразни планове. Един от най-известните е обвързван с виртуални действителности и се осъществя с XRSI. В България е специалист по тематиката в Дигитална национална коалиция.

Според нея страната ни държи положителни позиции в развиването на тематиката за етиката в изкуствения разсъдък.

Ако всички работим дружно, можем да бъдем една от най-силните страни в изкуствения разсъдък и етиката в AI. “
Технологии за положително: Мисията (не)възможна
„ Ние, които се занимаваме с нравственос в AI, желаеме изкуственият разсъдък да се употребява за положително, за възстановяване на качеството на живот на хората, за създаването на нови медикаменти и решения, свързани с околната среда. Ако се преследва единствено чистата монетизация, това не е добре и води до деформиране на разбирането за изкуствен интелект – от това защо той може да бъде употребен до чисто обществени недостатъци “, разяснява Моника Манолова.

И дава образец с компанията майка на Фейсбук, Meta, която до неотдавна имаше отдел, занимаващ се с създаването на нови медикаменти, само че го затвори и редуцира специалистите там – с цел да може да влага по-активно в създаването на чатботове. „ Това е пазарна тактичност, само че е неверно схващане за това какво може да ни донесе изкуственият разсъдък – схващане, обвързвано с директна монетизация по отношение на индиректните изгоди “, отбелязва Моника Манолова.

„ Този който употребява инструмента, той дефинира бизнес модела на корпорациите – в случай че една корпорация вижда, че хората се интересуват от възстановяване на окол среда, от основаването на удобни резултати, тази корпорация ще се саморегулира и ще стартира да създава сходни резултати. “

Пускането на ChatGPT отвън кутията провокира лавина от сходни решения в корпоративния свят. Институциите също се усетиха бързо и започнаха да създават регулации – от ЮНЕСКО през Белия дом до Англия и Европейски Съюз.

Интересното е, че всяка страна има собствен фокус и подхожда друго към тематиката. “

В Индия да вземем за пример законодателството е ориентирано към запазването на работните места, дава образец Моника Манолова. В Канада са с по-артистичен метод и там регулациите се насочват към запазването на авторското право, тъй че основателите да не бъдат наранени от принадлежности като ChatGPT. В Европа, където бе създаден AI Act, задачата на регулатора е „ да се предпазим от обществена подредба “.

Според Моника Манолова това е доста добър метод, само че признава, че има риск още веднъж да се прекали с регулациите и да се изпусне по този начин нужният на Европа иновационен подтик. Старият континент е прочут с научните си достижения, само че със слабостта си в използването.

Имаме потребност много-много бързо да разработим модели, които да са конкурентни на моделите в Съединени американски щати и Азия и имаме потребност да го създадем по метод, който да не наруши демократичните права на хората в Европа, които са съществена полезност на Европейски Съюз. “

В регулирането на AI има три звена: нравственос на данните, нравственос на логаритмите и нравственос на приложението. Във всяко от тези полета би трябвало да се ползват няколко правилото – данните да са уравновесени, да не изключват някой преднамерено, алогоритъмът да бъде разбираем по какъв начин работи, а при използването на е доста значимо да се отстрани рискът от прочувствено въздействие.

Според Моника Манолова придаването на човешки качества на изкуствения ин, който е логаритъм, не е вярно това е заблуждаващо. Затова би трябвало да има ясни и безапелационни демаркации, тъй като бъдещите генерации няма да бъдат способни да разграничат по кое време това, с което споделят, е изкуствен интелект и по кое време не е.

Дори сега някои хора, които споделят с такива принадлежности, не са способни да схванат разликите, какво остава за генерации, които ще израснат с тези принадлежности в ръцете си – налични, както е телефонът. “
Ще унищожи ли AI човечеството и човечността?
Източник: economic.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР