Вирджиния Дигнум е член на експертната група на Европейската комисия

...
Вирджиния Дигнум е член на експертната група на Европейската комисия
Коментари Харесай

Вирджиния Дигнум: Хората се нуждаят от принципите на Азимов повече, отколкото машините

Вирджиния Дигнум е член на експертната група на Европейската комисия за изкуствен интелект и учител в Umeå University в Швеция и в Delft University of Technology, Холандия. По време на конференцията на стилния колос H&M Change Makers Lab в Берлин " Дневник " приказва с нея за това за какво Европа се нуждае от етичен изкуствен интелект и какви би трябвало да са главните правила за развиването му.

- Ако би трябвало да обясните на първокласник какво работите, по какъв начин ще го извършите?


- Много забавен въпрос. Бих споделила, че работя да карам компютрите да схващат по-добре хората, с цел да можем да работим дружно, с цел да създадем живота си по-интересен, по-лесен, по-ефикасен, тъй че да е потребно за нас.

- По време на полемиките споменахте, че зависимостта от данните и събирането на огромни масиви информация не е пътят напред за изкуствения разсъдък. А какъв е той?

- Това не е единственият път напред. Трябва да преглеждаме разнообразни подходи. Проблемът с данните е, че откакто един път ги съберем, носим отговорност да ги държим на несъмнено място, да опазим неприкосновеността, да се употребяват за положителни цели, а не за неприятни. Към данните върви и огромна отговорност. Начинът, по който би трябвало да ги съхраняваме, е огромно задължение за природата. Техниката се усъвършенства, само че още са нужни доста сила и материали, които не са устойчиви, за компютрите и сървърите, където се намират данните. Повечето данни, които събираме, няма да използваме съвсем в никакъв случай. Така че съхраняваме всичко от всекиго в това сметище за боклучави данни, ако някой ден ни потрябват.

Мисля, че би трябвало да помислим за други възможности, с които да извличаме същите изгоди, само че да представяме знанието по различен метод и да открием способи за показване на познание с данните, които имаме. Няма потребност да прегледаш 1000 фотоси на времето, с цел да схванеш, че когато вали, земята ще се намокри. Машината би трябвало да изгледа всички тези фотоси, само че ние го знаем. Като предписание, с цел да дадем това познание на машината, в случай че вали, шансът, че ще се намокрите, е висок, машината няма потребност да пази информация за милионите разнообразни фотоси на времето.

- На процедура говорите за друг метод на хората към компютрите?

- Точно по този начин. Ако учим машините, в случай че желаеме те да разпознават шаблоните на това, което вършим, за някои неща се нуждаем данни, с цел да се уловят разликите, само че за други - не. И би трябвало да преценим по какъв начин можем да интегрираме тези неща.

- Наскоро специалисти към Европейската комисия писаха какъв брой е значимо изкуственият разсъдък, развиван в Европа, да бъде етичен и че това би трябвало да бъде първото нещо, което ще отличи Европейски Съюз от развитията в Китай и Съединени американски щати.

- Аз съм част от тази група. Етиката не е цел, а средство за основаване на изкуствен интелект, в който можем да имаме вяра и да знаем, че ще работи вярно и в сходство с това, което ние считаме за значимо като общество. Етиката е един от методите. По същия метод би трябвало да подсигуряваме, че системите, които построяваме, са в сходство със закона. Трябва да подсигуряваме, че действат вярно, че са здрави, че не се чупят и не основават безпорядък. Това са трите правилото: нравственос, правда, издръжливост, която би трябвало да работят дружно, с цел да гаратират, че можем да имаме вяра на системата на изкуствения разсъдък. Защото тези системи ще правят от ден на ден и повече неща, от които подвластен. От дребните неща до значимите решения в живота ни минават през системи с изкуствен интелект. Така че аз най-малко не мисля, че това е нужно, с цел да разпознаваем Европа от другите страни. Това е сфера, в която ние по традиция сме по-консервативни. Можем да създадем нещата разнообразни освен за Европа, а за целия свят, като покажем, че можем да работим по метод, който е виновен и фокусиран върху индивида и който въпреки всичко доставя положителни механически и ефикасни изгоди за всички.

- По метода, по който това се случи с регулациите на неприкосновеността?

- Да. От една страна, би трябвало да предприемем стъпки, с цел да подсигуряваме, че разпоредбите се съблюдават, само че, въпреки това, изгодите са доста огромни. Ако знаем, че можем да имаме вяра на избрана система, която ще се грижи за неприкосновеността ни, доста по-спокойно ще споделяме данни.

- Говорейки за правила, се сетих за трите закона на роботиката на Айзък Азимов. Биха ли били релеватни през днешния ден?

- В настоящия миг изкуственият разсъдък, най-малко този, който се употребява и от който се печели най-вече, не е просветеност, в смисъла на това, че в действителност има комплицирана познавателна дарба, по-скоро е напреднала дарба за разбор, за математика. В този случай значително направляваме какви са системите. Така че няма действителна потребност да се боим, че роботите ще завземат света. Няма потребност да се тормозим, че изкуственият разсъдък, който използваме през днешния ден, с цел да дефинира най-удачния метод да се разпределят облекла (в комерсиалната верига), ще избяга и ще стартира да убива. Не мисля, че въобще в миналото ще би трябвало да се тормозим за това, поради метода, по който го градим.

Системите са принадлежности. Разбира се, би трябвало да се тормозим от това по какъв начин хората биха ги употребявали, само че по същия метод би трябвало да се боим от това по какъв начин биха употребявали чук, оръжие или нещо друго. Можем да ги използваме за положително или за неприятно. Но това зависи доста повече от нас, в сравнение с от самия инструмент. В този смисъл мисля, че хората се нуждаят от правилата на Азимов и в случай че те бъдат подготвени, всичко с машините ще е наред.

- По време на словото си споменахте, че " човек не е данните си ". Къде е границата сред това, което човек е, и данните, събрани за него?

- Данните, които хората имат за нас, са значително методът, по който ние желаеме светът да ни види. Пускаме " Facebook " или " Тиндър " и демонстрираме по какъв начин желаеме да бъдем видени, само че не наложително това, което сме в действителност. В " Туитър " аз приказвам за нравственос, виновен изкуствен интелект, и това е напълно друго от това, което пиша във " Facebook ", където пиша за приятелите си, за бягане, за децата ми и за други неща. Така че би трябвало да сме по-наясно по какъв начин нареждаме себе си и по какъв начин системите за изкуствен интелект научават неща за нас.

От друга страна, става въпрос и за дребните разлики сред хората. Изкуственият разсъдък намира образец - всички хора, които се намират тук през днешния ден, попадат под еднакъв образец, тъй че могат да бъдат употребявани по избран метод, да им се даде някакво понижение в H&M. Ако стартираме да туитваме за това събитие, шансът да получим това понижение, е доста по-голям, в сравнение с за хората, които не са били тук.

Има го и обстоятелството, че нямаме задоволително данни за всички. Има доста данни за богатите хора в Европа и доста по-малко за бедните хора в Африка. Не можем да генерализираме това, което знаем за хората в Берлин, с цел да си вадим заключения за хората в Африка. Не с цел да им продаваме облекла, а и с цел да разберем да вземем за пример нещо за здравето им, за заболяванията, за диагностиката, от която се нуждаем. Трябва да сме наясно с тези разлики.
Източник: dnevnik.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР