ИИ съвсем не е приятел: какви са опасностите от илюзиите за мислещи машини?
Неправилните термини са подвеждащи и ни пречат да разберем действителните благоприятни условия на технологиите.
Настоящата наклонност за придаване на човешки черти на изкуствения разсъдък е една растяща заплаха, която изкривява разбирането ни за опциите на тези системи. Тази неточност – антропоморфизирането на изкуствения разсъдък – към този момент се отразява на основни решения в бизнеса, политиката и правото. Бизнес водачите съпоставят образованието на ИИ с образованието на хора, с цел да оправдаят метода, по който той работи, а законодателите разчитат на неправилни аналогии при вземането на значими решения.
Често използваме изречения като „ ИИ се учи “, „ мисли “, „ схваща “ или „ основава “. Тези термини наподобяват естествени, само че в основата си са неправилни. ИИ не „ учи “ като хората, а употребява математически логаритми за разбор на данните. Изследванията демонстрират, че сходен изказ е подвеждащ, защото основава усещането, че ИИ работи без значение от данните, на които е подготвен. Тази изкривена визия се отразява на възприемането на технологиите и може да докара до неправилни изводи, изключително по въпросите на авторското право.
ИИ не има способността за размишление, присъща за хората. Неговата съществена задача е различаване на модели и прогнозиране на последователности въз основа на огромни количества данни. Тази фундаментална разлика се демонстрира изключително ясно при задания, които изискват логическо мислене. Например, в случай че един модел е подготвен с изказванието „ А е равно на Б “, той може да не разбере, че „ Б е равно на А “.
Погрешните схващания за ИИ са изключително рискови в региона на авторското право. Сравняването на образованието на ИИ с образованието на индивида може да докара до подценяване смисъла на спазването на правата на интелектуална благосъстоятелност. За разлика от хората, които запомнят и интерпретират информацията, ИИ прави копия на данните и ги съхранява в своите системи. Това поражда въпроси по отношение на легитимността на потреблението на образователните материали.
Антропоморфизацията също по този начин основава опасности за предприятията. Ръководителите, които мислят за ИИ като за „ образован “ или „ изобретателен “, са склонни да надценяват неговите благоприятни условия. Това може да докара до непълен надзор върху генерирането на наличие, нарушение на авторските права и неточности в трансграничното сходство. Всяка страна има свои лични правила във връзка с авторското право и това, което е позволено на едно място, може да се смята за нарушаване на друго.
Друг значим аспект е прочувствената взаимозависимост от ИИ. Хората могат да възприемат чатботовете като другари или сътрудници, което води до неправилно доверие и откриване на сензитивна информация. Това затруднява вземането на рационални решения и усилва психическите опасности.
За да се преодолее този проблем, е значимо да се промени езикът, който използваме за разказване на изкуствения разсъдък, и да се отдалечим от антропоморфните термини. ИИ би трябвало да се преглежда като инструмент за разбор на данни, а не като мислеща същина. Ясното схващане на неговите благоприятни условия и ограничавания ще помогне да се избегнат правни, етични и на практика клопки.




