Claude ще се учи от разговорите ви с него
Това, че AI моделите са гладни за данни и изпитват дефицит в това отношение, се знае от дълго време. Така да вземем за пример, в репортаж по тематиката от страна на AI Business споделят, че по-старият модел ChatGPT 3.5 е бил подготвен на 300 милиарда думи. За да схванете мащаба на това изпитание си представете, че четете по една книга на ден в продължение на 80 години. Това се равнява на „ едвам “ три милиарда думи или по-малко от % от информацията, с която е захранен ChatGPT. Това е и повода фирмите да прибягват до потреблението на синтетични данни – такива, които са генерирани от AI модели. Но методът крие своите дефекти и опасности. Това е и евентуално повода Anthropic, основателите на AI чатботът Claude да разгласят смяна в политиките си.
Тези от вас, които употребяват Claude са видели в края на август известие от страна на Anthropic, което ви оповестява, че от в този момент нататък, ботът ще се учи посредством диалозите ви с него за в допълнение образование. От компанията ви дават период до края на септември да се съгласите с изискванията им.
Anthropic изясняват, че записите от диалозите с Claude, както и с Claude Code ще бъдат употребявани оттук насетне за възстановяване на модела. Digital Trends напомня, че досега Anthropic не са употребявали потребителските данни за образование на модела. „ Чрез присъединяване си, вие ще ни помогнете да подобрим сигурността на модела. Да подобрим системите си за засичането на нерегламентирано наличие и да избегнем неправилното установяване на естественото такова за нелегално “, пишат Anthropic. Приемането на измененията не е наложително и човек може да откаже данните му да се употребяват за образование. Но дори след 28-ми септември ще може да измененията това, в случай че желаете. Съобщава се, че Anthropic ще употребява за тази цел единствено арестувани диалози и такива, които са почнали след упоменатата дата. Но не и остарели диалози.
Промените засягат главните проекти на бота: Claude Free, Pro и Max. Те не покриват Claude for Work, Claude Gov, Claude for Education, както и APU използването му. Освен тази смяна, беше оповестена и друга. Тя визира периода, в който Anthropic ще пази данните ви на сървърите си. Компанията ще пази към този момент споделяната от вас информация за период от пет години. Хората, които са изтрили диалозите си с Claude няма да се употребяват за образование на модела.




