Мъж върна починалата си годеница чрез изкуствен интелект
Мъж употребява изкуствен интелект, с цел да върне умрялата си избраница. Но основателите на технологията предизвестяват, че тя може да бъде рискова и да се употребява за разпространяване на дезинформация.
Въпреки че годеницата на Джошуа Барбо е умряла, той беседва с нея от месеци. Или по-точно той приказва с чат бот, програмиран да звучи тъкмо като нея, оповестява " Инсайдер ".
Барбо описа в детайли по какъв начин Project December, програмен продукт, който употребява технология с изкуствен интелект за основаване на хиперреалистични чат ботове, пресъздава говоренето с починалата му избраница. Всичко, което трябвало да направи, е било да включи остарели известия и да даде избрана информация, и внезапно моделът почнал да подражава на партньорката му със зашеметяваща акуратност.
Може да звучи като знамение (или епизод от " Черно огледало " ), само че основателите на ИИ предизвестяват, че същата технология може да се употребява за поддържане на всеобщи акции за дезинформация.
Project December се задвижва от GPT-3, ИИ модел, планиран от изследователската група OpenAI, подкрепена от Илон Мъск. Консумирайки солидни набори от данни от основан от индивида текст, GPT-3 може да имитира човешко писане, създавайки всичко - от университетски публикации до писма от някогашни любовници. Това е едни от най-сложните - и рискови - основани на език стратегии за изкуствен интелект досега.
Когато OpenAI пусна GPT-2, предшественика на GPT-3, групата написа, че евентуално може да се употребява по „ злоумишлен метод “. Организацията чака неприятни участници, употребяващи технологията, да автоматизират „ злоупотребяващо или подправено наличие в обществените медии “, „ да генерират подвеждащи новинарски публикации “ или „ да се показват за други онлайн “. GPT-2 може да се употребява за " отключване на нови към момента непредвидени благоприятни условия за тези нови артисти ", написа групата.
OpenAI забави стартирането на GPT-2 и към момента лимитира достъпа до по-добрият GPT-3, с цел да „ даде време на хората “ да научат „ обществените последствия “ от такава технология.
Дезинформацията към този момент се популяризира в обществените медии, даже преди GPT-3 да е необятно наличен.
Докато ИИ продължава да се развива, Орен Ециони, основен изпълнителен шеф на изследователската група за биологични проучвания с нестопанска цел, Института Алън, по-рано сподели пред " Инсайдер ", че ще става все по-трудно да се каже какво е действително.
„ На въпроса „ Този текст или изображение, видео или имейл достоверен ли е? “ ще става все по-трудно да се отговори единствено въз основа на наличието ", предизвести той.
Още от ЛЮБОПИТНО:
Въпреки че годеницата на Джошуа Барбо е умряла, той беседва с нея от месеци. Или по-точно той приказва с чат бот, програмиран да звучи тъкмо като нея, оповестява " Инсайдер ".
Барбо описа в детайли по какъв начин Project December, програмен продукт, който употребява технология с изкуствен интелект за основаване на хиперреалистични чат ботове, пресъздава говоренето с починалата му избраница. Всичко, което трябвало да направи, е било да включи остарели известия и да даде избрана информация, и внезапно моделът почнал да подражава на партньорката му със зашеметяваща акуратност.
Може да звучи като знамение (или епизод от " Черно огледало " ), само че основателите на ИИ предизвестяват, че същата технология може да се употребява за поддържане на всеобщи акции за дезинформация.
Project December се задвижва от GPT-3, ИИ модел, планиран от изследователската група OpenAI, подкрепена от Илон Мъск. Консумирайки солидни набори от данни от основан от индивида текст, GPT-3 може да имитира човешко писане, създавайки всичко - от университетски публикации до писма от някогашни любовници. Това е едни от най-сложните - и рискови - основани на език стратегии за изкуствен интелект досега.
Когато OpenAI пусна GPT-2, предшественика на GPT-3, групата написа, че евентуално може да се употребява по „ злоумишлен метод “. Организацията чака неприятни участници, употребяващи технологията, да автоматизират „ злоупотребяващо или подправено наличие в обществените медии “, „ да генерират подвеждащи новинарски публикации “ или „ да се показват за други онлайн “. GPT-2 може да се употребява за " отключване на нови към момента непредвидени благоприятни условия за тези нови артисти ", написа групата.
OpenAI забави стартирането на GPT-2 и към момента лимитира достъпа до по-добрият GPT-3, с цел да „ даде време на хората “ да научат „ обществените последствия “ от такава технология.
Дезинформацията към този момент се популяризира в обществените медии, даже преди GPT-3 да е необятно наличен.
Докато ИИ продължава да се развива, Орен Ециони, основен изпълнителен шеф на изследователската група за биологични проучвания с нестопанска цел, Института Алън, по-рано сподели пред " Инсайдер ", че ще става все по-трудно да се каже какво е действително.
„ На въпроса „ Този текст или изображение, видео или имейл достоверен ли е? “ ще става все по-трудно да се отговори единствено въз основа на наличието ", предизвести той.
Още от ЛЮБОПИТНО:
Източник: actualno.com
КОМЕНТАРИ