Мъж използва изкуствен интелект, за да върне починалата си годеница.

...
Мъж използва изкуствен интелект, за да върне починалата си годеница.
Коментари Харесай

Мъж върна починалата си годеница чрез изкуствен интелект

Мъж употребява изкуствен интелект, с цел да върне умрялата си избраница. Но основателите на технологията предизвестяват, че тя може да бъде рискова и да се употребява за разпространяване на дезинформация.

Въпреки че годеницата на Джошуа Барбо е умряла, той беседва с нея от месеци. Или по-точно той приказва с чат бот, програмиран да звучи тъкмо като нея, оповестява " Инсайдер ".

Барбо описа в детайли по какъв начин Project December, програмен продукт, който употребява технология с изкуствен интелект за основаване на хиперреалистични чат ботове, пресъздава говоренето с починалата му избраница. Всичко, което трябвало да направи, е било да включи остарели известия и да даде избрана информация, и внезапно моделът почнал да подражава на партньорката му със зашеметяваща акуратност.

Може да звучи като знамение (или епизод от " Черно огледало " ), само че основателите на ИИ предизвестяват, че същата технология може да се употребява за поддържане на всеобщи акции за дезинформация.

Project December се задвижва от GPT-3, ИИ модел, планиран от изследователската група OpenAI, подкрепена от Илон Мъск. Консумирайки солидни набори от данни от основан от индивида текст, GPT-3 може да имитира човешко писане, създавайки всичко - от университетски публикации до писма от някогашни любовници. Това е едни от най-сложните - и рискови - основани на език стратегии за изкуствен интелект досега.

Когато OpenAI пусна GPT-2, предшественика на GPT-3, групата написа, че евентуално може да се употребява по „ злоумишлен метод “. Организацията чака неприятни участници, употребяващи технологията, да автоматизират „ злоупотребяващо или подправено наличие в обществените медии “, „ да генерират подвеждащи новинарски публикации “ или „ да се показват за други онлайн “. GPT-2 може да се употребява за " отключване на нови към момента непредвидени благоприятни условия за тези нови артисти ", написа групата.

OpenAI забави стартирането на GPT-2 и към момента лимитира достъпа до по-добрият GPT-3, с цел да „ даде време на хората “ да научат „ обществените последствия “ от такава технология.

Дезинформацията към този момент се популяризира в обществените медии, даже преди GPT-3 да е необятно наличен. 

Докато ИИ продължава да се развива, Орен Ециони, основен изпълнителен шеф на изследователската група за биологични проучвания с нестопанска цел, Института Алън, по-рано сподели пред " Инсайдер ", че ще става все по-трудно да се каже какво е действително.

„ На въпроса „ Този текст или изображение, видео или имейл достоверен ли е? “ ще става все по-трудно да се отговори единствено въз основа на наличието ", предизвести той.

Още от ЛЮБОПИТНО:

Източник: actualno.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР