Изкуственият интелект навлиза в „зряла“ възраст: по-малко пробиви, повече резултати
Секторът на AI пораства с стремглава скорост, а нови модели се появяват толкоз постоянно, че скоро е допустимо доста от премиум функционалностите да бъдат изцяло налични гратис или да се оферират във freemium версии, написа Fast Company.
Пример за това е OpenAI, която показа Deep Research - инструмент, който може да генерира задълбочени отчети в границите на минути, само че единствено за клиенти на Pro проекта ($200/месец). Междувременно Perplexity предлага сходна функционалност гратис, само че в стеснен тип.
Без огромни софтуерни пробиви на хоризонта компании като OpenAI, Anthropic и xAI се състезават, с цел да подобрят търсенето и логическите качества на своите модели. С по-ниските цени и минималните разлики в представянето фокусът се измества от „ уау “ резултата към действителната бизнес стойност.
Новата епоха на AI: сътрудниците поемат контрола
Големият залог през днешния ден е в самостоятелните AI сътрудници. Според Gartner, до 2028 година 33% от софтуерните приложения ще употребяват сходни сътрудници спрямо под 1% през 2024 година Около 15% от ежедневните бизнес решения могат да бъдат изцяло автоматизирани, което ще увеличи продуктивността и ще освободи чиновниците за по-стратегически задания.
Това изяснява и за какво OpenAI - компанията, която започва ChatGPT без ясна концепция за целевата си публика - в този момент показва първия си формален проект за развиване на продукта. А няма по-голям знак, че един пазар е „ узрял “, от съществуването на сходен.
Както написа вложителят и бизнесмен Фин Мърфи от AI Action Summit в Париж, където Европейски Съюз разгласи инвестиция от 200 милиарда евро в AI: " Изглежда, че ерата на техническите пробиви завършва тук. Сега към този момент сме във времето на политиките, партньорствата и огромните вложения. "
Сигурността е най-голямото предизвикателство пред изкуствения разсъдък
С навлизането на изкуствения разсъдък в корпоративния свят идват и по-сериозни отговорности за разработчиците, изключително що се отнася до сигурността.
Според изследване на Boston Consulting Group (BCG) измежду 1 803 топ мениджъри, 76% признават, че ограниченията им за киберсигурност в AI сферата се нуждаят от съществено усъвършенстване. Истината обаче е, че този % би трябвало да бъде 100%.
За изпълнителните шефове най-големият риск при потреблението на изкуствен интелект е обвързван с поверителността и сигурността на данните. Регулаторните провокации и спазването на законите също са измежду водещите им терзания. И с право - AI приложенията основават нови уязвими звена, а специалисти по сигурността към този момент съумяват да „ разбият “ всеки един от водещите AI модели в избрана степен.
Но същинското „ узряване “ идва с появяването на китайския модел DeepSeek, който ненадейно изведе AI сигурността в центъра на вниманието. Любопитен факт е, че потребителите и бизнесите се тревожат, че китайска компания може да има достъп до данните им, само че одобряват надалеч по-спокойно аналогичните условия на компании от Съединени американски щати или Европа. Истината е, че сигурността би трябвало да бъде водещ приоритет за всички модели на изкуствен интелект, без значение къде са основани или хоствани.
Историята демонстрира, че нарушителите постоянно са измежду първите, които възприемат новите технологии - от финансови измами до фишинг офанзиви по телефон, имейл или текстови известия. В ерата на AI сътрудниците, когато те могат да получат достъп до значима бизнес информация и вътрешни системи, всяка офанзива може да докара до пагубни последици.
За да се откри решение на този проблем, методът би трябвало да бъде да се мисли по същия метод, както атакуващите. Затова фирмите към този момент употребяват Agentic Warfare - автоматизирано тестване на AI модели за уязвимости още преди да бъдат внедрени. Т.нар. „ red-teaming “ на изкуствения разсъдък не е просто добра процедура - това е новият стандарт за обезпечаване на по-голяма сигурност.
Досега сигурността постоянно се възприемаше като спомагателен пласт, добавян едвам когато се появи проблем. В новата AI действителност обаче това към този момент не е алтернатива - сигурността би трябвало да бъде наедно с продуктивността при избора на принадлежности.
Любопитно е и друго наблюдаване от отчета на BCG: „ Интуитивният и другарски интерфейс на генеративния AI прикрива обстоятелството, че въвеждането му в бизнес средата изисква дисциплинираност, ангажираност и много работа. “
Това е сложен развой, само че евентуалните изгоди са големи.
Пример за това е OpenAI, която показа Deep Research - инструмент, който може да генерира задълбочени отчети в границите на минути, само че единствено за клиенти на Pro проекта ($200/месец). Междувременно Perplexity предлага сходна функционалност гратис, само че в стеснен тип.
Без огромни софтуерни пробиви на хоризонта компании като OpenAI, Anthropic и xAI се състезават, с цел да подобрят търсенето и логическите качества на своите модели. С по-ниските цени и минималните разлики в представянето фокусът се измества от „ уау “ резултата към действителната бизнес стойност.
Новата епоха на AI: сътрудниците поемат контрола
Големият залог през днешния ден е в самостоятелните AI сътрудници. Според Gartner, до 2028 година 33% от софтуерните приложения ще употребяват сходни сътрудници спрямо под 1% през 2024 година Около 15% от ежедневните бизнес решения могат да бъдат изцяло автоматизирани, което ще увеличи продуктивността и ще освободи чиновниците за по-стратегически задания.
Това изяснява и за какво OpenAI - компанията, която започва ChatGPT без ясна концепция за целевата си публика - в този момент показва първия си формален проект за развиване на продукта. А няма по-голям знак, че един пазар е „ узрял “, от съществуването на сходен.
Както написа вложителят и бизнесмен Фин Мърфи от AI Action Summit в Париж, където Европейски Съюз разгласи инвестиция от 200 милиарда евро в AI: " Изглежда, че ерата на техническите пробиви завършва тук. Сега към този момент сме във времето на политиките, партньорствата и огромните вложения. "
Сигурността е най-голямото предизвикателство пред изкуствения разсъдък
С навлизането на изкуствения разсъдък в корпоративния свят идват и по-сериозни отговорности за разработчиците, изключително що се отнася до сигурността.
Според изследване на Boston Consulting Group (BCG) измежду 1 803 топ мениджъри, 76% признават, че ограниченията им за киберсигурност в AI сферата се нуждаят от съществено усъвършенстване. Истината обаче е, че този % би трябвало да бъде 100%.
За изпълнителните шефове най-големият риск при потреблението на изкуствен интелект е обвързван с поверителността и сигурността на данните. Регулаторните провокации и спазването на законите също са измежду водещите им терзания. И с право - AI приложенията основават нови уязвими звена, а специалисти по сигурността към този момент съумяват да „ разбият “ всеки един от водещите AI модели в избрана степен.
Но същинското „ узряване “ идва с появяването на китайския модел DeepSeek, който ненадейно изведе AI сигурността в центъра на вниманието. Любопитен факт е, че потребителите и бизнесите се тревожат, че китайска компания може да има достъп до данните им, само че одобряват надалеч по-спокойно аналогичните условия на компании от Съединени американски щати или Европа. Истината е, че сигурността би трябвало да бъде водещ приоритет за всички модели на изкуствен интелект, без значение къде са основани или хоствани.
Историята демонстрира, че нарушителите постоянно са измежду първите, които възприемат новите технологии - от финансови измами до фишинг офанзиви по телефон, имейл или текстови известия. В ерата на AI сътрудниците, когато те могат да получат достъп до значима бизнес информация и вътрешни системи, всяка офанзива може да докара до пагубни последици.
За да се откри решение на този проблем, методът би трябвало да бъде да се мисли по същия метод, както атакуващите. Затова фирмите към този момент употребяват Agentic Warfare - автоматизирано тестване на AI модели за уязвимости още преди да бъдат внедрени. Т.нар. „ red-teaming “ на изкуствения разсъдък не е просто добра процедура - това е новият стандарт за обезпечаване на по-голяма сигурност.
Досега сигурността постоянно се възприемаше като спомагателен пласт, добавян едвам когато се появи проблем. В новата AI действителност обаче това към този момент не е алтернатива - сигурността би трябвало да бъде наедно с продуктивността при избора на принадлежности.
Любопитно е и друго наблюдаване от отчета на BCG: „ Интуитивният и другарски интерфейс на генеративния AI прикрива обстоятелството, че въвеждането му в бизнес средата изисква дисциплинираност, ангажираност и много работа. “
Това е сложен развой, само че евентуалните изгоди са големи.
Източник: profit.bg
КОМЕНТАРИ




