Страхът от изкуствения интелект почти никога не е страх от

...
Страхът от изкуствения интелект почти никога не е страх от
Коментари Харесай

Защо се страхуваме от AI и как да решим този проблем?

Страхът от изкуствения разсъдък съвсем в никакъв случай не е боязън от самия разсъдък. Той се появява доста по-рано, още преди логаритмите, моделите и параметрите да влязат в диалога. Този боязън се ражда в чувството, че нещо нечовешко може да стартира да взе участие в решения, които до момента са били непокътната територия на човешката отговорност. Не тъй като машината " мисли ", а тъй като някой може да ѝ даде право да взема решение. В този смисъл дебатът за AI постоянно е маскиран спор за власт - кой я упражнява, кой я носи и кой поема виновността, когато следствията станат необратими.

В общественото пространство тематиката съвсем постоянно се рамкира неправилно. Говори се за това дали AI ще стане " по-умен от нас ", дали ще развие " схващане ", дали ще има " лични цели ". Това са зрелищни, само че вторични въпроси. Истинският въпрос не е какво AI може да направи, а какво му разрешаваме да прави. Историята демонстрира, че човечеството не се плаши от принадлежности, които са по-силни, по-бързи или по-точни от него. Парната машина не е основала екзистенциален боязън, макар че е трансформирала човешкия труд в нещо вторично. Калкулаторът не е раздрусал моралния ред, макар че е превъзхождал човешкия разум в аритметиката. Самолетът не е породил философска суматоха, макар че е надминал птиците. Страхът поражда единствено когато инструментът стартира да взе участие в решения, които имат морална тежест.
 AI стопанска система: Как автоматизацията трансформира корпоративните облаги и пазара на труда
AI стопанска система: Как автоматизацията трансформира корпоративните облаги и пазара на труда

Тя към този момент е тук и оформя пазарите, облагите, труда и даже политическите решения

Точно тук се намира сериозната граница. Интелигентността сама по себе си не основава право. Способността да анализираш, прогнозираш или оптимизираш не поражда легитимност. Един логаритъм може да бъде безпределно прецизен и въпреки всичко да няма никакво право да взе участие в решения за човешка орис. Тази разлика постоянно се губи в полемиката, тъй като подсъзнателно смесваме разсъдък с престиж. А това е дълбока логическа неточност. Историята на човешките общества ясно демонстрира, че правото да решаваш не идва от способността да си прав, а от поемането на отговорност.

Голямото комплициране към AI произтича точно от това разбъркване. Много апокалиптични сюжети допускат, че в случай че една система стане задоволително умна, тя неизбежно ще стартира да прави морални оценки, да съпоставя човешкия живот с нереални цели, да усъвършенства бъдеще, в което хората могат да се окажат " неефективни ". Но това не е софтуерна наложителност. Това е дизайнерско решение. Няма закон на физиката или информатиката, който да изисква умна система да взе участие в морално значими решения. Това присъединяване се случва единствено в случай че някой го разреши.

Тук се появява основният архитектурен принцип, който може да обезоръжи огромна част от страха към AI: ясното дефиниране на когнитивна пълномощия. Това значи да се заложи още на равнище дизайн кои пространства на размишление са недостъпни за системата. Не като възбрана " след обстоятелството ", не като регулация, която се пробва да настигне технологията, а като структурно ограничаване. AI може да пресмята, да предвижда, да симулира, само че в никакъв случай да не влиза в зоната, където се взема решение кое е възможно, кое е заслужено и кое е морално целесъобразно.

Това трансформира напълно рамката на диалога. Вместо да се питаме дали AI ще избере " вярното " решение, ние дефинираме клас решения, до които той въобще няма достъп. Вместо да се надяваме на " доброжелателен AI ", ние сътворяваме система, която няма пълномощия да бъде нито добра, нито неприятна по отношение на човешката орис. Тя просто не взе участие там. Това е фундаментално друг метод от известните хрумвания за етичен или " другарски " AI, които в действителност трансферират голяма власт на системата с вярата, че тя ще я употребява вярно.

Илюзията за доброжелателния AI е изключително рискова, тъй като допуска, че сигурността идва от характера на системата. Но характерът е неустойчив даже при хората. Ценностите се интерпретират, задачите се трансформират, подтекстът се изкривява. Система, която има правото да взема морални решения, даже и с най-хубави планове, остава евентуален риск. Истинската сигурност не идва от това AI да " обича " хората, а от това в никакъв случай да не му е давано правото да ги прави оценка.
 Скритите водачи на идващото десетилетие: архитектите на ерата на изкуствения разсъдък
Скритите водачи на идващото десетилетие: архитектите на ерата на изкуствения разсъдък

Докато светът гледа към софтуерните колоси, същинската мощност на AI революцията се крие в тихите инженери на бъдещето

В дъното на страха от AI постоянно стои и различен, по-малко обсъждан проблем: делегираната отговорност. Хората не се опасяват единствено, че машината ще взема решение, а че никой няма да носи виновността. Когато едно решение е " предложено " от система, отговорността се размива. Човекът стартира да се крие зад логаритъма, институцията зад технологията, а технологията зад статистиката. Това е надълбоко подкопаване на моралния ред, тъй като отстранява ясния притежател на отговорност.

Подходът на ясно лимитирана когнитивна пълномощия прави тъкмо противоположното. Той принуждава индивида да остане последна инстанция там, където решенията имат морална тежест. AI може да дава информация, сюжети, вероятности, само че мълчи там, където индивидът би трябвало да приказва. Отказва там, където индивидът би трябвало да поеме отговорност. Спира там, където суверенитетът не може да бъде делегиран. Това безмълвие не е недостатък на системата, а нейна най-важна функционалност.

Така въпросът " Как да направляваме AI? " последователно губи смисъл. Той допуска, че AI е самостоятелен индивид, който би трябвало да бъде удържан. Много по-смисленият въпрос е " Кои решения в никакъв случай не би трябвало да бъдат делегирани? ". Когато тези граници са ясно дефинирани и вградени още преди разсъждението, доверието става вторично. Не тъй като имаме вяра, че системата ще се държи добре, а тъй като знаем, че тя няма пълномощия да се държи зле.

Това трансформира и метода, по който мислим за бъдещето. Най-опасният AI не е този, който ненавижда хората. Това е доверчив сюжет. Най-опасният AI е този, който има вяра, че има право да ги прави оценка, да ги подрежда по стойност и да взема решения от тяхно име. Най-безопасният AI не е този, който ни обича или схваща, а този, който в никакъв случай не е получил власт над нас. Тази разлика е тънка, само че фундаментална.
 Как да употребявате изкуствения разсъдък, с цел да станете по-добър вложител
Как да употребявате изкуствения разсъдък, с цел да станете по-добър вложител

Това е единствено една от забавните тематики, които ще разгледаме по време на форума " Силата на вложенията "

В последна сметка страхът от изкуствения разсъдък не е софтуерен проблем. Той е проблем на архитектурата на властта. Не се лекува с повече разсъдък, повече данни или по-сложни модели. Лекува се с ясни граници, заложени в самата конструкция на системите. Граници, които споделят не какво AI би трябвало да прави, а какво няма право да прави. И точно това прави бъдещето на AI не апокалиптично, а управляемо - не посредством надзор над машината, а посредством опазване на човешкия суверенитет там, където той не може и не би трябвало да бъде сменен.
Източник: money.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР