OpenAI разкри, че нейните разработки са в състояние да облекчат

...
OpenAI разкри, че нейните разработки са в състояние да облекчат
Коментари Харесай

Изкуствения интелект на OpenAI може да „модерира“ какво пишем в интернет

OpenAI разкри, че нейните разработки са в положение да облекчат една от най-трудните и изнервящи механически задания - задачата за модериране на наличие. Големият езиков модел на GPT-4 е в положение да размени десетки хиляди човешки модератори, като показва еднообразно висока акуратност и още по-голяма поредност.

OpenAI заяви в корпоративния си блог, че към този момент употребява GPT-4, с цел да усъвършенства личните си политики за наличие, етикетиране и самостоятелни решения. Разработчикът даже показва редица преимущества на изкуствения разсъдък пред обичайните подходи за модериране на наличие.
-->
Първо, хората интерпретират политиките по друг метод, до момента в който машините са поредни в преценките си. Насоките за модериране могат да бъдат обемни и непрекъснато изменящи се - на хората им е належащо дълго време, с цел да се научат и приспособяват към измененията, до момента в който огромните езикови модели ползват новите политики неотложно. Второ, GPT-4 е в положение да помогне за създаването на нова политика в границите на няколко часа. Процесът на етикетиране, събиране на противоположна връзка и рационализиране нормално лишава седмици или даже месеци. Трето, не може да се подценява психическото благоденствие на чиновниците, които вследствие на работата си са непрекъснато изложени на злонамерено наличие.

Популярните обществени мрежи съществуват от съвсем две десетилетия, да не приказваме за други онлайн общности, само че модерирането на наличието към момента е една от най-трудните задания за онлайн платформите. Meta, Гугъл и TikTok са построили цели армии от модератори, които би трябвало да преглеждат извънредно и постоянно травматично наличие. Повечето от тях живеят в нископлатени разрастващи се страни, работят за външни компании и се пробват да се оправят с контузиите сами с минимална помощ.

Самата OpenAI към момента разчита в огромна степен на човешки запаси - тя наема служащи от африкански страни, с цел да разясняват и маркират наличие. Това наличие може да бъде проблематично, което прави работата на тези чиновници стресираща при ниско възнаграждение. А гореспоменатите Meta, Гугъл и TikTok употребяват вътрешни модели с изкуствен интелект в допълнение към човешките модератори, тъй че препоръчаното от OpenAI решение ще се окаже потребно за по-малките компании, които нямат запаси за създаване на лични системи.

Всяка платформа признава, че няма съвършени механизми за модериране в огромен мащаб: и хората, и машините вършат неточности. Процентът на грешките може да е невисок, само че към момента има милиони евентуално нездравословни изявления, които си проправят път към общественото пространство - и евентуално също толкоз безвредно наличие, което се скрива или отстранява. Освен това остава " сивата зона " на неопределено или обидно наличие, което дава отговор на условията на политиките за модериране, само че озадачава автоматизираните системи - такова наличие е мъчно за оценка даже от хора-модератори, тъй че машините постоянно позволяват неточности. Същото се отнася и за сатирични изявления и материали, документиращи закононарушения или корист с власт от страна на чиновници на правоприлагащите органи. И най-после, не трябва да забравяме за вътрешните проблеми, присъщи за системите с изкуствен интелект - " халюцинации " и " дрейф ", които също могат да усложнят работата на модераторите с изкуствен интелект.
Източник: standartnews.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР