Перфектен на теория, изкуственият интелект бърка в реални си...
Изкуственият разсъдък е отличен асистент на лекаря, само че може да докара до огромна пакост, когато предлага и най-подходящото лекуване, настояват специалистите. Големият плюс на ИИ е в откриването на модели в огромни масиви от данни. В медицината те биха могли да алармират за ранни признаци на заболяване, които доктор може да пренебрегне, или пък да посочат най-хубавия вид за лекуване, въз основа на това по какъв начин са реагирали други пациенти с сходни признаци и генезис.
Но макар цялата си мощност, изкуственият разсъдък може да прави неточности. Макар че тези системи са подготвени с данни за действителни пациенти, те може да се затруднят, когато се сблъскат с нещо извънредно или когато данните не подхождат изцяло на дадения пациент.
В резултат на това ИИ не всеки път дава точна диагноза. Този проблем се назовава алгоритмично отклоняване - когато системите с изкуствен интелект се показват добре в следени условия, само че губят акуратност в действителни обстановки.
Също по този начин доста авангардни системи с изкуствен интелект действат като непрозрачни „ черни кутии “. Те генерират рекомендации, само че даже разработчиците им може да се затруднят да обяснят изцяло по какъв начин. Тази неяснота се сблъсква с потребностите на медицината, където решенията изискват аргументация.
Съществуват и опасения за поверителността, подбудени от шерването на данни. За да образоват логаритми и да вършат прогнози, медицинските системи с изкуствен интелект постоянно изискват големи количества данни за пациентите. Ако не се ръководи вярно, ИИ може да разкрие сензитивна здравна информация.
Разработването на добре работеща система с изкуствен интелект включва доста проби и неточности. Трябва да се премине през строги проби, с цел да се гарантира сигурност и успеваемост. Това лишава години и даже откакто системата бъде утвърдена, може да са нужни корекции, защото тя се сблъсква с нови типове данни и действителни обстановки, прибавят специалистите.
Текст: Татяна Белева
Но макар цялата си мощност, изкуственият разсъдък може да прави неточности. Макар че тези системи са подготвени с данни за действителни пациенти, те може да се затруднят, когато се сблъскат с нещо извънредно или когато данните не подхождат изцяло на дадения пациент.
В резултат на това ИИ не всеки път дава точна диагноза. Този проблем се назовава алгоритмично отклоняване - когато системите с изкуствен интелект се показват добре в следени условия, само че губят акуратност в действителни обстановки.
Също по този начин доста авангардни системи с изкуствен интелект действат като непрозрачни „ черни кутии “. Те генерират рекомендации, само че даже разработчиците им може да се затруднят да обяснят изцяло по какъв начин. Тази неяснота се сблъсква с потребностите на медицината, където решенията изискват аргументация.
Съществуват и опасения за поверителността, подбудени от шерването на данни. За да образоват логаритми и да вършат прогнози, медицинските системи с изкуствен интелект постоянно изискват големи количества данни за пациентите. Ако не се ръководи вярно, ИИ може да разкрие сензитивна здравна информация.
Разработването на добре работеща система с изкуствен интелект включва доста проби и неточности. Трябва да се премине през строги проби, с цел да се гарантира сигурност и успеваемост. Това лишава години и даже откакто системата бъде утвърдена, може да са нужни корекции, защото тя се сблъсква с нови типове данни и действителни обстановки, прибавят специалистите.
Текст: Татяна Белева
Източник: marica.bg
КОМЕНТАРИ




