Нов етап в AI чатботовете: собствени, „частни“ модели
Нуждата от дискретност при общуването с чатботове породи появяването на частни модели, които не “източват ” данни на открито (снимка: CC0 Public Domain)
Поверителността се трансформира в главен проблем при чатботовете с изкуствен интелект, които са свързани към нечии корпоративни сървъри. Ето, че се оформя идващ стадий в развиването на технологията: ботове, които се грижат за поверителността и неприкосновеността. Първият подобен е реалност и вероятно появяването му ще отприщи раждането на други други възможности.
Компании като Samsung, JPMorgan, Apple и Amazon не разрешиха на чиновниците си да употребяват ChatGPT от боязън, че поверителна фирмена информация може да изтече посредством шерването с бота. ChatGPT, който е благосъстоятелност на OpenAI, непрестанно се самообучава посредством всички подкани и известия, които потребителите вкарват.
Алтернатива за всеки
Но в този момент към този момент има опция за всеки, обезпокоен от концепцията за евентуалното откриване на персонална информация пред онлайн чатбот. PrivateGPT е AI модел с отворен код, който разрешава на потребителите да задават въпроси въз основа на личните си документи без интернет връзка.
Създаден от разработчик на име Иван Мартинес Торо, PrivateGPT работи локално на домашното устройство на потребителя. Системата изисква първо да се изтегли огромен езиков модел (LLM) с отворен код, наименуван gpt4all. След това потребителят получава указания да сложи всички свои файлове, които ще употребява за образованието на чатбота, в специфична папка, с цел да може моделът да „ сдъвче “ всички данни.
След като ботът бъде подготвен, потребителят може да задава всевъзможни въпроси на модела. Той ще дава отговор, употребявайки документите, предоставени като подтекст. PrivateGPT може да поеме над 58 000 думи и сега се нуждае от обилни местни изчислителни запаси – по-специално добър процесор.
„ PrivateGPT в настоящето си положение е по-скоро доказателство за идея (POC). Това е проява, която потвърждава осъществимостта на концепцията за основаване на изцяло местна версия на AI помощник, сходен на ChatGPT, който да може да приема документи и да дава отговор на въпроси, без каквито и да е данни да напущат компютъра “, споделя Торо.
AI моделът може умерено да работи офлайн. „ Лесно е да си представим капацитета за превръщането на този POC в автентичен артикул. За фирмите това е опция за внезапен скок на продуктивността, откакто ще имат достъп до собствен личен, персонализиран, предпазен и частен ChatGPT. “
Торо споделя, че е основал приложението, откакто е видял какъв брой скъп е ChatGPT на работното място. „ Хората и правните отдели в актуалната ми компания имаха достъп до ChatGPT за няколко седмици и в последна сметка изчерпахме кредитите; мнозина се обърнаха към мен с молба да им оказа помощ да си върнат достъпа, тъй като не желаеха да се върнат към остарелия метод на извършване на работата – без него “.
Поверителността е главен претекст
Същата обстановка обаче предиздвикала Торо да се замисли за тайната и неприкосновеността: правният отдел на компанията желал да заключи частен юридически документ благодарение на ChatGPT, само че не съумял заради рисковете за поверителността.
още по темата
Именно поверителността се трансформира в главен проблем при онлайн моделите на база AI, които са свързани към нечии корпоративни сървъри.
Един абсурден случай на приключване на данни посредством LLM чатове се случи през април, когато трима чиновници на Samsung в Корея инцидентно „ източиха “ сензитивна информация към ChatGPT. Един чиновник бе споделил конфиденциален първоначален код, с цел да го ревизира за неточности. Друг бе изискал от ChatGPT да усъвършенства написания код. Трети пък показа запис на среща и изиска от чатбота да конвертира диалога в писмени бележки.
Заваляха забрани
След тази поредност доста от огромните софтуерни компании осъзнаха близостта на заплахите за своите корпоративни секрети и не разрешиха потреблението на чатбота за своите чиновници. Bloomberg забрани какъвто и да е генеративен AI и стана ясно, че се пробва да сътвори собствен личен патентован модел.
Освен корпоративна информация посредством ChatGPT могат да изтекат и персонални данни, което предизвика реакции от страна на държавните регулатори.
Това е повода, заради която наскоро Италия реши краткотрайно да забрани ChatGPT – за към месец – базирайки се на опасения по отношение на потреблението на персонална информация от услугата и несъгласието с Общия правилник за отбрана на данните на Европейски Съюз (GDPR). По-късно възбраната падна, откакто OpenAI извърши изискванията, поискани от италианския орган за отбрана на данните.
Източник: technews.bg
КОМЕНТАРИ




