Висши ръководители на компании за (AI или ИИ), включително главният

...
Висши ръководители на компании за (AI или ИИ), включително главният
Коментари Харесай

Изкуственият интелект може да ликвидира човечеството, твърдят експерти и мениджъри

Висши ръководители на компании за (AI или ИИ), в това число основният изпълнителен шеф на OpenAI, се причислиха във вторник към специалисти и професори, твърдящ, че се покачва " рискът AI да докара до изгубване на човечеството ". Те приканиха политиците да приравнят това с рисковете, подбудени от пандемии и експлоадирането на нуклеарна война.

" Намаляването на риска от изгубване на човечеството поради ИИ би трябвало да бъде световен приоритет дружно с други опасности от публичен мащаб като пандемии и нуклеарна война ", декларират повече от 350 души, подписали в писмо, оповестено от неправителствената организация Център за сигурност на ИИ (CAIS).

Освен Олтман измежду тях са основните изпълнителни шефове на компаниите за изкуствен интелект DeepMind и Anthropic и ръководители от Microsoft и Гугъл. Писмото подписаха още Джефри Хинтън и Йошуа Бенгио - двама от тримата " кръстници на ИИ ", които получиха премията Тюринг през 2018 година за работата си по т.нар задълбочено обучаване - и професори от институции, вариращи от Харвард до китайския университет Цинхуа.

Изявление от CAIS уточни Meta, където работи третият " кръстник " на ИИ, Ян Лекун, за това, че не е подписал писмото. " Помолихме доста чиновници на Meta да подпишат ", сподели шефът на CAIS Дан Хендрикс.

Писмото съответства със срещата на Съвета за търговия и технологии САЩ-ЕС в Швеция, където се чака политиците да приказват за регулирането на ИИ.

Илон Мъск и група специалисти по изкуствен интелект и ръководители на промишлеността бяха първите, които показаха през април евентуални опасности за обществото. " Отправихме покана (към Мъск) и се надяваме, че той ще я подпише тази седмица ", сподели Хендрикс.

 Сам Олтман
© Reuters

Сам Олтман

Последните разработки на ИИ сътвориха принадлежности, които могат да имат приложение в най-различни сфери - от здравна диагностика до писане на правни документи, само че това породи опасения, че технологията може да докара до нарушение на поверителността, акции за дезинформация и проблеми с мисленето на " умните машини " за себе си.

Предупреждението идва два месеца откакто организацията с нестопанска цел Future of Life Institute (FLI) популяризира сходно отворено писмо, подписано от Мъск и стотици други, изискващи незабавно въвеждане на пауза в авангардните проучвания на ИИ, акцентирайки опасности за човечеството.

" Нашето писмо говореше за пауза, това насочва вниманието към изгубването ни ", сподели президентът на FLI Макс Тегмарк, който също подписа по-скорошното писмо. " Сега най-сетне може да стартира градивен открит диалог. Пионерът на изкуствения разсъдък Хинтън сподели по-рано пред " Ройтерс ", че изкуственият разсъдък може да съставлява " по-спешна " опасност за човечеството от изменението на климата. Миналата седмица основният изпълнителен шеф на OpenAI Сам Олтман дефинира метода на Европейски Съюз към ИИ - първите старания за основаване на регулация за ИИ - като свръхрегулация и заплаши да напусне Европа. Той промени позицията си в границите на няколко дни след рецензии от политици.

Олтман стана лицето на AI, откакто неговият чатбот ChatGPT завладя вниманието на света. Председателят на Европейската комисия Урсула фон дер Лайен ще се срещне с Олтман в четвъртък, а шефът на промишлеността на Европейски Съюз Тиери Бретон ще се срещне с него в Сан Франциско идващия месец.
Източник: dnevnik.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР