Сам Алтман, главен изпълнителен директор на OpenAI, компанията, която разработи

...
Сам Алтман, главен изпълнителен директор на OpenAI, компанията, която разработи
Коментари Харесай

„Малко сме уплашени“: Сам Алтман предупреждава за рисковете от AI

Сам Алтман, основен изпълнителен шеф на OpenAI, компанията, която създаде спорното потребителско приложение за изкуствен интелект ChatGPT, предизвести, че технологията идва с действителни рискове, защото трансформира обществото.   37-годишният Алтман акцентира, че регулаторите и обществото би трябвало да бъдат ангажирани с технологията, с цел да предпазят човечеството от евентуално отрицателни последствия. „ Тук би трябвало да внимаваме “, сподели Алтман пред ABC News в четвъртък, добавяйки: „ Мисля, че хората би трябвало да са щастливи, че сме малко уплашени от това.   „ Особено съм обезпокоен, че тези модели могат да бъдат употребявани за широкомащабна дезинформация “, сподели Алтман в изявлението за ABC. „ Сега, когато стават все по-добри в писането на компютърен код, те могат да бъдат употребявани за хакерски атаки. “
Въпреки заплахите, сподели Алтман, това може да бъде и „ най-великата технология, която човечеството до момента е разработвало “.   Предупреждението идва малко откакто OpenAI пусна най-новата версия на своя езиков AI модел, GPT-4 - по-малко от четири месеца след стартирането на истинската версия, трансформирала се в най-бързо разрастващото се потребителско приложение в историята.   В изявлението AI инженерът сподели още, че макар че новата версия „ не е съвършена “, тя е постигнала 90% в Съединени американски щати на адвокатските изпити и съвсем съвършен резултат на гимназиалния тест по математика SAT. Може също по този начин да написа компютърен код на множеството езици за програмиране, сподели той.   Страховете от изкуствения разсъдък, ориентиран към потребителите, и изкуствения разсъдък като цяло се концентрират върху това, че хората ще бъдат сменени от машини. Но Алтман уточни, че AI работи единствено под управление на хора.     „ Това е инструмент, който е в огромна степен под човешки надзор “, сподели Алтман, само че добави, че има терзания за това кои хора имат надзор върху него.   „ Ще има и хора, които не съблюдават някои от рестриктивните мерки за сигурност, които ние вкарваме “, сподели още той. „ Мисля, че обществото разполага с лимитирано време, с цел да разбере по какъв начин да реагира на това, по какъв начин да го контролира, по какъв начин да се оправи с него. “     Изпълнителният шеф на Tesla, Илон Мъск, един от първите вложители в OpenAI, неведнъж е изказвал предизвестия, че AI или AGI – генеративният изкуствен интелект – е по-опасен от нуклеарно оръжие.   Мъск изрази угриженост, че Microsoft, която хоства ChatGPT на своята търсачка Bing, е разпуснала своя отдел за етичен контрол. „ Няма регулаторен контрол върху AI, което е главен проблем. Призовавам за контролиране на сигурността на AI повече от десетилетие! “, туитна Мъск през декември. Тази седмица той още веднъж изрази паника: „ Какво ще остане на нас хората? “     В четвъртък Алтман призна, че последната версия употребява дедуктивни разсъждения, а не запаметяване, развой, който може да докара до странни отговори.   „ Нещото, за което най-вече се пробвам да предупредя хората, е това, което назоваваме „ проблем с халюцинациите “, сподели Алтман. „ Моделът решително ще съобщи нещата, като че ли са обстоятелства, които са напълно измислени “.   Правилният метод да мислим за моделите, които сътворяваме, е мотор за разсъждения, а не база данни с обстоятелства, добави той. „ Въпреки че технологията може да работи като база данни с обстоятелства, това не е специфичното в тях – това, което желаеме да вършат, е нещо по-близко до способността да разсъждават, а не да запаметяват “.
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР