Съосновател на OpenAI: В един момент ще е много лесно за някой да причини голяма вреда с ИИ
Тази седмица OpenAI пусна най-новата си версия на ChatGPT. Въпреки че чатботът с изкуствен интелект продължава да прибавя нови благоприятни условия, нараства загрижеността, че сходни принадлежности с изкуствен интелект могат да се употребяват и за неприятни цели.
Иля Суцкевер, основен академик и съосновател на OpenAI, съобщи пред The Verge, че ще пристигна време, когато ИИ ще може много елементарно да се употребява за причиняване на вреди.
„ Тези модели са доста мощни и стават все по-мощни ”, сподели той.
В един миг ще бъде много елементарно, в случай че някой желае, да аргументи огромна щета с тези модели.
Той направи тези забележки, до момента в който обясняваше за какво OpenAI към този момент не дава подробна информация за това по какъв начин образова тези модели.
Тъй като опциите стават все по-големи, има смисъл да не желаете да ги разкривате. Напълно чакам, че след няколко години за всички ще бъде изцяло явно, че разкриването на ИИ просто не е рационално.
Главният изпълнителен шеф на OpenAI Сам Алтман е изразявал сходни опасения в предишното.
В изявление по-рано тази година той съобщи, че въпреки най-хубавият сюжет за ИИ да е „ толкоз необикновено добър, че ми е мъчно даже да си го показва “, най-лошият вид е „ гасене на светлините за всички нас “.
В една тематика в Twitter предишния месец Алтман съобщи, че съгласно него инструментите на ИИ могат да оказват помощ на хората да станат по-продуктивни, по-здрави и по-умни, само че също по този начин добави, че светът може би не е „ толкоз надалеч от евентуално страшни “ принадлежности на изкуствения разсъдък. Смята, че регулирането им ще бъде „ от решаващо значение “.




