OpenAI, компанията зад ChatGPT, представи своя нов инструмент за текст

...
OpenAI, компанията зад ChatGPT, представи своя нов инструмент за текст
Коментари Харесай

Представиха нов AI, създаващ ВИДЕО по текст

OpenAI, компанията зад ChatGPT, показа своя нов инструмент за текст към видео, захранван от изкуствен интелект. Това е прогрес – само че това може да не е безусловно нещо положително.

Програмата, наречена Sora, към момента не е обществено налична, само че примерните видеоклипове, споделени от компанията и нейния изпълнителен шеф Сам Алтман, са просто умопомрачителни.

Вълнести мамути дефилират към „ камерата “, оставяйки облаци от прахообразен сняг след себе си.

Снежинки се носят от небето, до момента в който двойка се разхожда ръка за ръка през Токио.

Introducing Sora, our text-to-video model.

Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions.

Prompt: “Beautiful, snowy…
— OpenAI (@OpenAI)

„ Дрон “ минава през познатите бели и сини здания на Санторини по здрач. На пръв взор всичко е наред и това елементарно може да е в действителност кадър – без изчезналите животни. Всички са генерирани от елементарни команди и компанията споделя, че не са били редактирани по никакъв метод.

При по-внимателно разглеждане обаче множеството видеоклипове имат няколко издайнически подаръка.

Трио вълчета, играещи на чакълена писта, се умножава, до момента в който се търкалят в близост, непринудено се появяват нови дребни, които по-късно се сливат назад в своите братя и сестри.

И тъкмо както генеративният AI се е борил с числа и крака в предишното, същото е правилно – евентуално още повече – във видео формат. Пляскаща ръка пораства и губи пръсти. Жена, лежаща в леглото, се слива с нейната покривка, която като че ли се трансформира в ръката й.

Повечето хора наподобява вървят по този начин, като че ли са претърпели лек случай.

Самият OpenAI знае, че към момента не е идеален.

Настоящият модел има недостатъци “, се споделя на неговия уеб страница. „ Може да има проблеми с точното преструване на физиката на комплицирана сцена и може да не схваща съответни случаи на причина и разследване.

„ Например, човек може да отхапе бисквитка, само че по-късно бисквитката може да няма диря от захапване. “

Но това е първо потомство и е плашещо положително.

В една година с към 60 избори по целия свят и възходяща угриженост всеки ден по отношение на заплахите от дълбоки имитации, концепцията, че основаването на такива реалистични видеоклипове скоро ще бъде в ръцете на всеки, който има интернет, ще изостри страховете от манипулиране на гласоподавателите.

OpenAI даде обещание, че се отнася съществено към сигурността, като се стреми да подсигурява, че наличието, генерирано от AI, е маркирано и да спре потреблението му за злонамерени цели.

Но като се има поради, че различен сходен програмен продукт към този момент е бил употребен за основаване на категорично видео и за машинация на президента на Съединени американски щати, прекъсването на хората, употребяващи AI, с цел да разстройват и смущават, е по-лесно да се каже, в сравнение с да се направи.

„ Ще предприемем няколко значими стъпки за сигурност, преди да създадем Sora налична в продуктите на OpenAI “, споделиха от компанията. „ Ние работим с червени екипи  – специалисти по домейни в области като дезинформация, насаждащо ненавист наличие и пристрастия  – които ще тестват модела със съревнование.

„ Ние също построяваме принадлежности, които да оказват помощ за откриването на подвеждащо наличие, като да вземем за пример класификатор за разкриване, който може да разбере по кое време видеоклипът е генериран от Sora. “

Въпреки уверенията им обаче, мнозина са обезпокоени от този великански скок напред в качествата.

 
Източник: glasnews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР