Ръководителите на OpenAI, Google DeepMind, Anthropic и други лаборатории за

...
Ръководителите на OpenAI, Google DeepMind, Anthropic и други лаборатории за
Коментари Харесай

Водещи разработчици на AI нарекоха продуктите си заплаха, сравнима с пандемия и ядрена война

Ръководителите на OpenAI, Гугъл DeepMind, Anthropic и други лаборатории за изкуствен интелект предизвестиха, че технологиите, върху които работят, могат да застрашат съществуването на човечеството, тъй че би трябвало да се отнасят към категориите на обществените опасности дружно с пандемиите и нуклеарните войни.

„ Намаляването на риска от изгубване заради ИИ би трябвало да бъде световен приоритет дружно с другите публични опасности като пандемии и нуклеарни войни “ – гласи отвореното писмо, състоящо се от едно изречение, написано от водачите в промишлеността. Очаква се документът да бъде оповестен от организацията с нестопанска цел Center for AI Safety. Той е подписан от над 350 ръководители, откриватели и инженери, работещи в региона на AI.

Сред подписалите се, по-специално се открояват: ръководителят на OpenAI Сам Алтман (Sam Altman); Ръководителят на Гугъл DeepMind Демис Хасабис (Demis Hassabis); Главният изпълнителен шеф на Anthropic Дарио Амодей (Dario Amodei), дружно с Джефри Хинтън (Geoffrey Hinton) и Йошуа Бенгио (Yoshua Bengio) – двама от тримата носители на премията Тюринг, считани за кръстниците на модерния изкуствен интелект, до момента в който третият, Ян Лекун (Yann LeCun), оглавяващ на проучванията в региона на AI в Meta, към момента не е подписал.

В обществото фактически има възходяща угриженост по отношение на по-нататъшното развиване на системите с изкуствен интелект. Смята се, че платформите от мащаба на ChatGPT могат да се употребяват за разпространяване на дезинформация и агитация. Освен това, единствено в Европа и Съединените щати 300 милиона души могат да изгубят работата си заради AI. Тези опасения се споделят от водачите в промишлеността, които по този метод се слагат в необикновената позиция да настояват, че технологиите, които създават, крият съществени опасности и би трябвало да бъдат строго контролирани от страната.

Някои скептици настояват, че AI-технологиите към момента са прекомерно незрели, с цел да съставляват осезаема опасност за човечеството, тъй че би трябвало да се съсредоточим върху краткосрочните проблеми – пристрастните и неправилни отговори на AI-системите. Други считат, че AI, съпоставим с човешките качества, ще се появи в близко бъдеще. За да се избегнат вероятни отрицателни последствия, водачите в промишлеността оферират основаването на организация, ориентирана към контролиране на ИИ – това би трябвало да бъде нещо като аналог на Международната организация за атомна сила (МААЕ), която се пробва да предотврати разпространяването и потреблението на нуклеарни оръжия.

През март повече от хиляда откриватели и представители на промишлеността подписаха отворено писмо, призоваващо за шестмесечно прекъсване на напредналите AI-системи, обявявайки ги за опасност за човечеството. Следващият документ в оригинала си съдържа единствено 22 думи – къса дефиниция, предопределена да сплоти специалисти, чиито отзиви може да се разграничават по избрани въпроси. „ Мисля, че в случай че нещо се обърка с тази технология, тогава всичко ще бъде изцяло друго. И ние желаеме да го обявим. Искаме да работим с държавното управление, с цел да предотвратим това “ – сподели изпълнителният шеф на OpenAI Сам Алтман по време на скорошно чуване в Конгреса на Съединени американски щати.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР