Като част от семинара Големият дебат за изкуствения интелект“ на

...
Като част от семинара Големият дебат за изкуствения интелект“ на
Коментари Харесай

AI ще унищожи човечеството с 10-20% вероятност

Като част от семинара „ Големият спор за изкуствения разсъдък “ на срещата на върха на изобилието, известният милиардер Илон Мъск каза, че изкуственият разсъдък (AI) може да унищожи човечеството. Въпреки това, макар този риск, милиардерът въпреки всичко прикани за създаване на сходни технологии.

Според Мъск AI може да докара до гибелта на човечеството, съобщава Business Insider. Той се съгласи с Джефри Хинтън, академик и някогашен началник на проучванията на AI в Гугъл, в оценката на рисковете, само че има вяра, че евентуалният триумф надвишава следствията от отрицателен сюжет. Интересното е, че Илон Мъск не загатна по какъв начин тъкмо са изчислени рисковете.

„ Мисля, че има прочут късмет това да постави завършек на човечеството. Вероятно бих се съгласил с Джеф Хинтън, че става въпрос за 10% или 20% или нещо сходно “, сподели Илон.

Роман Ямполски, откривател по сигурността на AI и шеф на лабораторията за киберсигурност в Университета на Луисвил, сподели пред Business Insider, че Мъск е прав, че AI може да съставлява екзистенциална опасност за човечеството, само че Мъск е прекомерно закостенял в оценката на Роман.

„ Според мен p(doom) е доста по-висока “, сподели Ямполски.

P(doom) е вероятността от доста неприятни резултати (например изгубване на човечеството) вследствие на потреблението на AI, - изд. p(doom) също се отнася до обстановка, в която AI поема контрола над човечеството или предизвиква събитие, което ще постави завършек на човечеството, като да вземем за пример основаване на ново биологично оръжие или причиняване на колапс посредством широкомащабна хакерска атака или нуклеарна война.

New York Times нарече (p)doom новата страшна статистика, обхващаща Силиконовата котловина, като разнообразни механически ръководители споделят, че вероятността от апокалипсис, ръководен от AI, е сред 5% и 50%. Ямполски прави оценка риска на 99,999999%, защото ще бъде невероятно да се управлява напреднал AI. Според него е по-добре въобще да не се основава такава технология.

„ Не разбирам за какво Мъск счита, че създаването на тази технология е добра концепция “, разяснява Ямполски. „ Ако той се тормози, че съперниците ще стигнат първи, това няма значение, тъй като неконтролираният суперинтелект е еднообразно неприятен, без значение кой го е основал. “

Миналия ноември Мъск сподели, че има друг от нула късмет технологията в последна сметка да се повреди, само че той беше по-оптимистичен в оценката си, в сравнение с през днешния ден. Въпреки че е бил последовател на регулирането на изкуствения разсъдък, предходната година Илон основава компания, наречена xAI, която има за цел да разшири още повече опциите на тази технология. xAI е съперник на OpenAI.

На срещата на върха Илън Мъск сподели, че цифровата просветеност ще надвиши цялата човешка просветеност, взета дружно, до 2030 година С аргумента, че евентуалните позитивни резултати надвишават негативите, Мъск призна риска за света, в случай че развиването на ИИ продължи по сегашната си траектория в някои области.

„ Едно от нещата, които съгласно мен са извънредно значими за сигурността на ИИ, е да имаме ИИ, който е допустимо най-любопитен и търсещ истината “, сподели предприемачът.

Според него най-хубавият метод за реализиране на сигурност на ИИ е да се създаде ИИ по подобен метод, че да е достоверен.

„ Не го принуждавайте да лъже, даже в случай че истината е неприятна “, сподели Мъск.

Изследователите откриха, че откакто AI се научи да лъже хората, лъжливото държание не може да бъде променено от съществуващите ограничения за сигурност. За това писа в частност The Independent. В материала се показва, че в случай че моделът на AI демонстрира лъжливо държание, тогава актуалните способи за образование по сигурност не подсигуряват сигурност, само че даже могат да основат подправено усещане за сигурност. Учените също са уверени, че AI може да се научи да мами, както се споделя, тъкмо по този начин.

Джефри Хинтън има вяра, че в случай че една невронна мрежа стане доста по-умна от хората, тя ще може да ги манипулира, тъй като ще научи това от хората. Това заяви той в коментар за CNN.
Източник: glasnews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР