Учените от DeepMind са убедени, че изкуственият общ интелект (

...
Учените от DeepMind са убедени, че изкуственият общ интелект (
Коментари Харесай

AI с човешки интелект може да унищожи света. Изследователи на Google описаха как

Учените от DeepMind са уверени, че изкуственият общ разсъдък ( AGI ) с благоприятни условия на човешко равнище ще бъде създаден до 2030 година и може да аргументи съществени вреди, в случай че не бъде следен.

Екипът на DeepMind, управителен от съоснователя на компанията Шейн Лег, категоризира отрицателните последствия от AGI. Изследователите идентифицираха четири закани: корист, противоречие, неточности и структурни опасности, написа Ars Technica.

Злоупотребата е сходна на актуалните опасности, свързани с ИИ. AGI може да се употребява за корист. Например, може да бъде помолен да открие и употребява уязвимости от нулевия ден или да сътвори дизайнерски вирус, който може да се употребява като биологично оръжие. DeepMind споделя, че разработващите AGI компании ще би трябвало да проведат обширни проби и да основат постоянни протоколи за сигурност след образование, с цел да избегнат това.

Втората опасност е несъответствието. Този вид злочинство на AGI се разказва като лъжлива машина, която е избягала от наложените от нейните разработчици ограничавания. Такъв AI прави дейности, които разработчиците не са имали поради. DeepMind твърди, че става въпрос за освен това от елементарна машинация или конспирация. За да се избегне това, DeepMind предлага на разработчиците да употребяват техники като усъвършенстван контрол. Например, две копия на изкуствен интелект могат взаимно да ревизират необработените данни, с цел да основат надеждни системи, които е малко евентуално да мамят.

Бъговете са друга опасност. Става дума за нездравословни резултати, които не са планувани от оператора. DeepMind отбелязва, че военните може да разположат AGI заради конкурентен напън, само че такива системи могат да създадат съществени неточности, които да имат съдбовни последствия. Изследователите не оферират решение на този проблем, с изключение на попречване на AGI да стане прекомерно мощен.

Изследователите също по този начин приказват за структурни опасности, които DeepMind дефинира като непреднамерени, само че действителни последствия от многоагентни системи. Например, AGI може да сътвори погрешна информация, която е толкоз правдоподобна, че е мъчно да се разбере дали може да ѝ се има вяра.

DeepMind показва този отчет по отношение на рисковете от AGI като насочна точка за жизненоважни полемики по отношение на провокациите на изкуствения разсъдък на бъдещето.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР