Според експерти изкуственият интелект ще има все по-ключова роля в бъдеще
Експертът Христо Томов уточни по БНР, че се задава вълна от доста по-голямо включване на изкуствения разсъдък във всички аспекти на разпространение на дезинформация. В последните месеци и години имаше доста съществено развиване в изкуствения разсъдък, което ще разреши напълно скоро той да стартира да играе доста по-ключова роля, в сравнение с сега. Христо Томов е специалист в областта на машинното самообразование.
Експертът по изкуствен интелект Мартин Стаменов сподели, че " Все още е задоволително на ниска цена и налично човек да бълва и популяризира дезинформация, без машинно генериране на текстове. " Самите логаритми са основани на машинно образование. Това са логаритмите за промотиране на наличие на обществените медии: " Ние като ползватели, като регулатори нямаме никаква бистрота по какъв начин работи един подобен логаритъм. Това остава една затворена кутия за нас. "
Относно модерацията във Facebook Христо Томов разяснява: " Какво тъкмо се случва, е съществено защитавана загадка от Facebook, само че се знае общо какво се случва, без елементи. Тези техни логаритми – и за таргетиране на информация, и за модериране, те са правени с добра концепция, да се поддържа ползата на хората към платформата. Колкото до автоматизираното модериране, в множеството случаи става въпрос не автоматизирано да бъде спирано несъмнено наличие, а да се притегля вниманието на модератори към несъмнено наличие, т.е. в последна сметка, най-малко за момента опира до човешка преценка ", разяснява Христо Томов по тематиката за модерацията във Facebook.
Според него фактически царува схващане, че изкуственият разсъдък е напълно основан на основни думи. В последните години изкуственият разсъдък се разви задоволително добре, тъй че да може да схваща подтекст на доста езици. Контекстът е до някаква степен към този момент решена задача: " Това, което изгубихме по пътя, е да интерпретираме за какво обещано изречение е класифицирано по този метод. Изгуби се това да можем да отворим капака, за сметка на това, че сме доста положителни да разбираме подтекст. "
Христо Томов добави, че неща, които допреди няколко години са се смятали за далечни и сложни за различаване от изкуствения разсъдък, с задоволително образци машината извлича за себе си избрани модели. Когато хората модерират постове, те връщат решението назад на машината, която пък го употребява за подготвителни данни, разясни той. " Машините при самообучението са много гъвкави и дребна част " отровени данни ", както се назовават, нормално не ги чупи. Ако " отровените данни " станат забележителна част от данните, с които се самообучава машината, тогава към този момент това се отразява на това какво тя научава и по какъв начин стартира да класифицира в бъдеще. "
Откъде идват подправените вести? Мартин Стаменов уточни съществуването на три пласта медии. Единият се състои от сайтове-гъби, които изникват при " пропагандна вълна и дъжд от черни пари ", след което сходни мрежи от анонимни уеб сайтове се деактивират. " Те са място, където се посява дадена опорка, даден разказ, дадена дезинформация. Те биват основани в доста огромно голям брой, в границите на 5-10 минути всеки от нас би могъл да направи 200-300-400 клонинга, според от това какъв му е бюджетът и тласъкът да популяризира дезинформация. GDPR-ът им служи правилно, по никакъв метод не можем да вземем информация от така наречен регистрари за домейните – в коя страна са хостнати самите уеб сайтове, кой вероятно им е собственик… Цялото това нещо е безусловно закрито като информация към този момент. "
Експертът по изкуствен интелект Мартин Стаменов сподели, че " Все още е задоволително на ниска цена и налично човек да бълва и популяризира дезинформация, без машинно генериране на текстове. " Самите логаритми са основани на машинно образование. Това са логаритмите за промотиране на наличие на обществените медии: " Ние като ползватели, като регулатори нямаме никаква бистрота по какъв начин работи един подобен логаритъм. Това остава една затворена кутия за нас. "
Относно модерацията във Facebook Христо Томов разяснява: " Какво тъкмо се случва, е съществено защитавана загадка от Facebook, само че се знае общо какво се случва, без елементи. Тези техни логаритми – и за таргетиране на информация, и за модериране, те са правени с добра концепция, да се поддържа ползата на хората към платформата. Колкото до автоматизираното модериране, в множеството случаи става въпрос не автоматизирано да бъде спирано несъмнено наличие, а да се притегля вниманието на модератори към несъмнено наличие, т.е. в последна сметка, най-малко за момента опира до човешка преценка ", разяснява Христо Томов по тематиката за модерацията във Facebook.
Според него фактически царува схващане, че изкуственият разсъдък е напълно основан на основни думи. В последните години изкуственият разсъдък се разви задоволително добре, тъй че да може да схваща подтекст на доста езици. Контекстът е до някаква степен към този момент решена задача: " Това, което изгубихме по пътя, е да интерпретираме за какво обещано изречение е класифицирано по този метод. Изгуби се това да можем да отворим капака, за сметка на това, че сме доста положителни да разбираме подтекст. "
Христо Томов добави, че неща, които допреди няколко години са се смятали за далечни и сложни за различаване от изкуствения разсъдък, с задоволително образци машината извлича за себе си избрани модели. Когато хората модерират постове, те връщат решението назад на машината, която пък го употребява за подготвителни данни, разясни той. " Машините при самообучението са много гъвкави и дребна част " отровени данни ", както се назовават, нормално не ги чупи. Ако " отровените данни " станат забележителна част от данните, с които се самообучава машината, тогава към този момент това се отразява на това какво тя научава и по какъв начин стартира да класифицира в бъдеще. "
Откъде идват подправените вести? Мартин Стаменов уточни съществуването на три пласта медии. Единият се състои от сайтове-гъби, които изникват при " пропагандна вълна и дъжд от черни пари ", след което сходни мрежи от анонимни уеб сайтове се деактивират. " Те са място, където се посява дадена опорка, даден разказ, дадена дезинформация. Те биват основани в доста огромно голям брой, в границите на 5-10 минути всеки от нас би могъл да направи 200-300-400 клонинга, според от това какъв му е бюджетът и тласъкът да популяризира дезинформация. GDPR-ът им служи правилно, по никакъв метод не можем да вземем информация от така наречен регистрари за домейните – в коя страна са хостнати самите уеб сайтове, кой вероятно им е собственик… Цялото това нещо е безусловно закрито като информация към този момент. "
Източник: frognews.bg
КОМЕНТАРИ




