Група от 20 водещи технологични компании обяви съвместен ангажимент за

...
Група от 20 водещи технологични компании обяви съвместен ангажимент за
Коментари Харесай

Microsoft, OpenAI и Google се включиха в пакт за борба с AI фалшификати

Група от 20 водещи софтуерни компании разгласи взаимен ангажимент за битка с дезинформацията, основана от изкуствен интелект, по време на изборите.

Индустрията се насочва съответно към дълбоките имитации, които могат да употребяват лъжливи аудио, видео и изображения, с цел да имитират основни участници в демократичните избори или да дават погрешна информация за гласуването.

Microsoft, Meta, Гугъл, Amazon, IBM, Adobe и дизайнерът на чипове Arm са част от подписалите съглашението.

OpenAI, Anthropic и Stability AI също се причислиха към групата, дружно с компании за обществени медии като Snap, TikTok и X, оповестява CNBC.

Технологичните платформи се приготвят за основна година на избори по света, които засягат над четири милиарда души допълнително от 40 страни.

Възходът на наличието, генерирано от изкуствен интелект, докара до съществени опасения за дезинформация, обвързвана с изборите, като броят на основаните дълбоки имитации се усилва с 900% на годишна база, по данни на Clarity, компания за компютърно образование.

Дезинформацията по време на избори е сериозен проблем още от президентската акция в Съединени американски щати през 2016 година, когато съветските участници откриха евтини и лесни способи да популяризират погрешно наличие в обществените медии.

Днес законодателите са още по-загрижени от бързото развиване на изкуствения разсъдък.

" Има причина за сериозна угриженост по какъв начин AI може да бъде употребен за заблуждаване на гласоподавателите ", съобщи в изявление Джош Бекер, сенатор от Демократическата партия в Калифорния.

" Окуражаващо е да забележим, че някои компании сядат на масата на договарянията, само че към този момент не виждам задоволително конкретика, тъй че евентуално ще се нуждаем от законодателство, което да дефинира ясни стандарти ", добави той.

Междувременно технологиите за разкриване и основаване на водни знаци, употребявани за идентифициране на дълбоки имитации, не се развиват задоволително бързо, с цел да са в крайник с времето. Засега фирмите просто се договарят за нещо, което се равнява на набор от механически стандарти и механизми за разкриване.

Дори в случай че платформите, които стоят зад изображения и видеоклипове, генерирани от изкуствен интелект, се съгласят да включат стандарти като невидими водни знаци и избрани метаданни, има способи да се заобиколят тези защитни ограничения. Снимките на екрана от време на време даже могат да заблудят детектора, добавя CNBC.

Освен това невидимите сигнали, които някои компании включват в изображенията, генерирани от изкуствен интелект, към момента не са достигнали до доста генератори на аудио и видео.

Новината за съглашението идва ден, откакто основателят на ChatGPT OpenAI разгласи Sora - своя нов модел за видео, генерирано от изкуствен интелект.

Sora работи сходно на инструмента за генериране на изображения с изкуствен интелект на OpenAI, DALL-E. Потребителят вкарва мечтаната сцена и Sora връща видеоклип с висока разграничителна дарба.

Sora може също по този начин да генерира видеоклипове, въодушевени от неподвижни изображения и да уголемява съществуващи видеоклипове или да попълня изчезнали фрагменти.

Компаниите, участващи в съглашението, поемат осем уговорката на високо ниво, в това число да правят оценка рисковете, свързани с моделите, да се стремят да откриват и да се оправят с разпространяването на такова наличие на своите платформи и да обезпечават бистрота на тези процеси за обществеността.

Както при множеството доброволни задължения в софтуерната промишленост и отвън нея, в известието се прецизира, че уговорките се ползват единствено " когато са от голяма важност за услугите, които всяка компания дава ".

" Демокрацията се основава на сигурни и безвредни избори ", съобщи Кент Уокър, президент по световните въпроси на Гугъл.

Споразумението отразява напъните на промишлеността да се оправи с " генерираната от изкуствен интелект предизборна дезинформация, която подкопава доверието ", добави той.

Кристина Монтгомъри, основен шеф по въпросите на неприкосновеността на персоналния живот в IBM, съобщи, че в тази основна година на избори са нужни " съответни, взаимни ограничения за отбрана на обществата от засилените опасности от генерирано от AI заблуждаващо наличие ".
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР