IBM: Скоростта не е най-важният критерий за ИИ
10 Май
На 29-ти април 2021 година IBM бе хазаин на онлайн кръгла маса за медиите на тематика " Отговорно потребление на изкуствения разсъдък ". Александра Мойсилович, IBM Fellow и академик в региона на изкуствения разсъдък (ИИ) приказва за заплахите от пристрастия, липса на разбираеми данни и неустойчивост на враждебни офанзиви. Д-р Мойсилович прегледа и спорната приложимост на технологията сега и най-много потреблението на ИИ за основаване на евентуално нездравословно наличие: дийп фалшив, предизвикателно и подстрекателско наличие и логаритми в обществените медии, насочващи потребителите към дезинформация.
Мойсилович акцентира, че продуктивността няма да е задоволителна като аршин при планиране на ИИ, а етичните съображения също би трябвало да са част от набора критерии.
" ИИ системите са доста забавни от позиция на сигурността, имайки поради метода, по който биват обучавани - посредством огромни масиви от данни, които постоянно са събирани от други хора или взети от интернет. Налице са благоприятни условия от така наречен " отравящи " офанзиви (целящи деформиране на крайните резултати посредством манипулиране на входния масиви, употребявани за образование, бел. ред.), показа Мойсилович, след въпрос от Computerworld България за методите отбрана по време на процеса по образование. Това е сфера, в която се води доста интензивно изследване. Ние в IBM разполагаме с цялостен екип, работещ в тази тенденция. Поради тази причина създадохме и иструментариума, наименуван Adversarial Robustness Toolbox (ART) ".
ART е оповестен в GitHub и има за цел да подкрепя разработчиците при отбраната и оценката на употребяваните от разработчиците модели за образование на ИИ. Имайки поради тези и други опасности IBM Research създава техники и логаритми за оценка на основополагащите детайли за създаване и гарантиране на доверие. Става въпрос за принадлежности, които, съгласно компанията, откриват и смекчават пристрастията, демонстрират уязвимостите, обезвреждат офанзивите и демонстрират ясно процеса на взимане на решения.
От там са уверени, че с напредването на технологиите за изкуствен интелект, хората и системите, основани на ИИ, от ден на ден работят дружно. Затова съгласно компанията е извънредно значимо да се доверяваме на резултатите от тези системи, с цел да можем да взимаме осведомени решения.
Експертите от IBM Research разпознават следните основни детайли, на които би трябвало да се базира всяка надеждна система за изкуствен интелект:
Справедливост ( Fairness ): ИИ системите би трябвало да употребяват безпристрастни данни и модели за самообразование, с цел да се избегне вероятно незаслужено отношение към избрани групи Надеждност ( Robustness ) : ИИ системите би трябвало да са безвредни и сигурни, да не са уязвими за подправяне или компрометиране на данните, на които са подготвени Обяснимост ( Explainability ) : Системите с изкуствен интелект би трябвало да дават решения или оферти, които могат да бъдат разбрани от техните консуматори и разработчици Произход и проследимост на данните ( Lineage ) : Системите с изкуствен интелект би трябвало да включват елементи за тяхната разработка, внедряване и поддръжка, с цел да могат да бъдат проверявани през целия им витален цикъл
По прилика с действителните структури и при ИИ системите доверието не може да бъде построено единствено въз основата на един от посочените детайли: в случай че една ИИ система е обективна, само че не може да устои на офанзива, тя няма да се употребява с доверие. Ако е сигурна, само че никой не може да разбере решенията, които предлага, също няма да й се доверяваме. Ето за какво е неотложно всички детайли да се укрепват по едно и също време, като дружно с това следим и измерваме успеваемостта на системата при всеки обособен детайл.
Александра Мойсилович e Head of AI Foundations в IBM Research и Co-Director of IBM Science for Social Good, както и IBM Fellow и IEEE Fellow. Автор е на над 100 изявления и има 16 патента. Сред най-новите планове, за които Д-р Мойсилович е съдействала, е системата за изкуствен интелект на IBM Research, показана през март 2021 година Системата употребява технологии, основани на ИИ, с цел да форсира основаването на нови пептиди за битка с устойчивостта към антибиотични медикаменти. Тези старания могат също да оказват помощ за откриването и основаването на нови материали за битка с климатичните промени, да основат по-интелигентно произвеждане и предпазване на сила и доста други. Новата генеративна рамка на ИИ на екипа е, като са генерирани 3000 нови молекули.
На 29-ти април 2021 година IBM бе хазаин на онлайн кръгла маса за медиите на тематика " Отговорно потребление на изкуствения разсъдък ". Александра Мойсилович, IBM Fellow и академик в региона на изкуствения разсъдък (ИИ) приказва за заплахите от пристрастия, липса на разбираеми данни и неустойчивост на враждебни офанзиви. Д-р Мойсилович прегледа и спорната приложимост на технологията сега и най-много потреблението на ИИ за основаване на евентуално нездравословно наличие: дийп фалшив, предизвикателно и подстрекателско наличие и логаритми в обществените медии, насочващи потребителите към дезинформация.
Мойсилович акцентира, че продуктивността няма да е задоволителна като аршин при планиране на ИИ, а етичните съображения също би трябвало да са част от набора критерии.
" ИИ системите са доста забавни от позиция на сигурността, имайки поради метода, по който биват обучавани - посредством огромни масиви от данни, които постоянно са събирани от други хора или взети от интернет. Налице са благоприятни условия от така наречен " отравящи " офанзиви (целящи деформиране на крайните резултати посредством манипулиране на входния масиви, употребявани за образование, бел. ред.), показа Мойсилович, след въпрос от Computerworld България за методите отбрана по време на процеса по образование. Това е сфера, в която се води доста интензивно изследване. Ние в IBM разполагаме с цялостен екип, работещ в тази тенденция. Поради тази причина създадохме и иструментариума, наименуван Adversarial Robustness Toolbox (ART) ".
ART е оповестен в GitHub и има за цел да подкрепя разработчиците при отбраната и оценката на употребяваните от разработчиците модели за образование на ИИ. Имайки поради тези и други опасности IBM Research създава техники и логаритми за оценка на основополагащите детайли за създаване и гарантиране на доверие. Става въпрос за принадлежности, които, съгласно компанията, откриват и смекчават пристрастията, демонстрират уязвимостите, обезвреждат офанзивите и демонстрират ясно процеса на взимане на решения.
От там са уверени, че с напредването на технологиите за изкуствен интелект, хората и системите, основани на ИИ, от ден на ден работят дружно. Затова съгласно компанията е извънредно значимо да се доверяваме на резултатите от тези системи, с цел да можем да взимаме осведомени решения.
Експертите от IBM Research разпознават следните основни детайли, на които би трябвало да се базира всяка надеждна система за изкуствен интелект:
Справедливост ( Fairness ): ИИ системите би трябвало да употребяват безпристрастни данни и модели за самообразование, с цел да се избегне вероятно незаслужено отношение към избрани групи Надеждност ( Robustness ) : ИИ системите би трябвало да са безвредни и сигурни, да не са уязвими за подправяне или компрометиране на данните, на които са подготвени Обяснимост ( Explainability ) : Системите с изкуствен интелект би трябвало да дават решения или оферти, които могат да бъдат разбрани от техните консуматори и разработчици Произход и проследимост на данните ( Lineage ) : Системите с изкуствен интелект би трябвало да включват елементи за тяхната разработка, внедряване и поддръжка, с цел да могат да бъдат проверявани през целия им витален цикъл
По прилика с действителните структури и при ИИ системите доверието не може да бъде построено единствено въз основата на един от посочените детайли: в случай че една ИИ система е обективна, само че не може да устои на офанзива, тя няма да се употребява с доверие. Ако е сигурна, само че никой не може да разбере решенията, които предлага, също няма да й се доверяваме. Ето за какво е неотложно всички детайли да се укрепват по едно и също време, като дружно с това следим и измерваме успеваемостта на системата при всеки обособен детайл.
Александра Мойсилович e Head of AI Foundations в IBM Research и Co-Director of IBM Science for Social Good, както и IBM Fellow и IEEE Fellow. Автор е на над 100 изявления и има 16 патента. Сред най-новите планове, за които Д-р Мойсилович е съдействала, е системата за изкуствен интелект на IBM Research, показана през март 2021 година Системата употребява технологии, основани на ИИ, с цел да форсира основаването на нови пептиди за битка с устойчивостта към антибиотични медикаменти. Тези старания могат също да оказват помощ за откриването и основаването на нови материали за битка с климатичните промени, да основат по-интелигентно произвеждане и предпазване на сила и доста други. Новата генеративна рамка на ИИ на екипа е, като са генерирани 3000 нови молекули.
Източник: computerworld.bg
КОМЕНТАРИ




