Ето какви са състезателните примери за заблуждение на невронните мрежи
Разпечатаната на 3D принтер костенурка се разпознава от невронната мрежа като различен обект
Отдавна се знае, че напълно дребни особено направени промени в изображенията, напълно заблуждават системите с машинно образование, които стартират да ги класифицират като нещо напълно друго. Тези “троянски изображения” се назовават “състезателни примери” (adversarial examples) и са едно от най-известните ограничавания на дълбокото машинно образование.
Троянските изображения се генерират, като във входните данни за правенето на образците се прибавят градиенти на различен облик. Така да вземем за пример, в случай че се вземе фотография на панда и се добави градиента “гибон”, невронна мрежа стартира да класифицира пандата като гибон, макар че човешкото око разпознава само пандата. Костенурката може да наподобява като пушка. Котката се трансформира в мексиканското ядене гуакамоле и така нататък Тоест, всеки обект може да се трансформира в различен в очите на машинния разсъдък, тъй като зрението на ИИ е напълно друго от човешкото.
Досега тази тънка конфигурация на градиента работеше единствено с 2D изображения и бе доста сензитивна към всевъзможни изкривявания.
При този образец, в случай че котаракът бъде показан под различен ъгъл и от по-различно разстояние, за невронната мрежа той още веднъж е котарак, а не гуакамоле.
В действителността, тези способи за заблуждаване на невронните мрежи не са доста ефикасни поради шумовете, шумовете на фотосензора и други изкривявания, които неизбежно пораждат в действителността. Учените от MIT разгледаха по-подробно този аспект. Независимата научноизследователска група LabSix към MIT сътвори първия в света логаритъм, генериращ спортни 3D образци. В клипа по-долу е показана костенурка, която стабилно се разпознава от класификатора Гугъл InceptionV3 като пушка (rifle) под съвсем всевъзможен ъгъл.
Алгоритъмът генерира освен костенурки, а и всевъзможни други случайни модели. Показана бе бейзболна топка, която постоянно се разпознава като еспресо, както и редица други оптични илюзии за изкуствения разсъдък .
Заблудата на машинното зрение сработва даже и когато обектът на фотосите е в семантично нерелевантен подтекст. Очевидно е, че невронната мрежа при своето образование няма по какъв начин да е видяла пушка под водата или еспресо в ръкавицата на кетчъра.
Новият логаритъм генерира 3D изображения за съответна невронна мрежа, само че офанзивата очевидно би била сполучлива и при други невронни модели, подготвени благодарение на същите данни.
В научната работа на тази тематика се споделя, че е допустимо основаването на пътен знак, указващ продажбата на неподвижен парцел, който за хората-шофьори наподобява напълно нормален, само че за роботизирания автомобил това е пешеходец, който ненадейно е изскочил пред колата. Състезателните образци провокират все по-голям интерес с увеличеното потребление на невронните мрежи.
За отбрана от сходни офанзиви, разработчиците на ИИ ще би трябвало да пазят в загадка информацията за архитектурата на своите невронни мрежи и по-важното, данните, употребявани за тяхното образование.
Научната работа е оповестена на 30 октомври 2017 година в arXiv.org.
Отдавна се знае, че напълно дребни особено направени промени в изображенията, напълно заблуждават системите с машинно образование, които стартират да ги класифицират като нещо напълно друго. Тези “троянски изображения” се назовават “състезателни примери” (adversarial examples) и са едно от най-известните ограничавания на дълбокото машинно образование.
Троянските изображения се генерират, като във входните данни за правенето на образците се прибавят градиенти на различен облик. Така да вземем за пример, в случай че се вземе фотография на панда и се добави градиента “гибон”, невронна мрежа стартира да класифицира пандата като гибон, макар че човешкото око разпознава само пандата. Костенурката може да наподобява като пушка. Котката се трансформира в мексиканското ядене гуакамоле и така нататък Тоест, всеки обект може да се трансформира в различен в очите на машинния разсъдък, тъй като зрението на ИИ е напълно друго от човешкото.
Досега тази тънка конфигурация на градиента работеше единствено с 2D изображения и бе доста сензитивна към всевъзможни изкривявания.
При този образец, в случай че котаракът бъде показан под различен ъгъл и от по-различно разстояние, за невронната мрежа той още веднъж е котарак, а не гуакамоле.
В действителността, тези способи за заблуждаване на невронните мрежи не са доста ефикасни поради шумовете, шумовете на фотосензора и други изкривявания, които неизбежно пораждат в действителността. Учените от MIT разгледаха по-подробно този аспект. Независимата научноизследователска група LabSix към MIT сътвори първия в света логаритъм, генериращ спортни 3D образци. В клипа по-долу е показана костенурка, която стабилно се разпознава от класификатора Гугъл InceptionV3 като пушка (rifle) под съвсем всевъзможен ъгъл.
Алгоритъмът генерира освен костенурки, а и всевъзможни други случайни модели. Показана бе бейзболна топка, която постоянно се разпознава като еспресо, както и редица други оптични илюзии за изкуствения разсъдък .
Заблудата на машинното зрение сработва даже и когато обектът на фотосите е в семантично нерелевантен подтекст. Очевидно е, че невронната мрежа при своето образование няма по какъв начин да е видяла пушка под водата или еспресо в ръкавицата на кетчъра.
Новият логаритъм генерира 3D изображения за съответна невронна мрежа, само че офанзивата очевидно би била сполучлива и при други невронни модели, подготвени благодарение на същите данни.
В научната работа на тази тематика се споделя, че е допустимо основаването на пътен знак, указващ продажбата на неподвижен парцел, който за хората-шофьори наподобява напълно нормален, само че за роботизирания автомобил това е пешеходец, който ненадейно е изскочил пред колата. Състезателните образци провокират все по-голям интерес с увеличеното потребление на невронните мрежи.
За отбрана от сходни офанзиви, разработчиците на ИИ ще би трябвало да пазят в загадка информацията за архитектурата на своите невронни мрежи и по-важното, данните, употребявани за тяхното образование.
Научната работа е оповестена на 30 октомври 2017 година в arXiv.org.
Източник: kaldata.com
КОМЕНТАРИ




