Изкуствен интелект: 12 предизвикателства с AI „трябва да бъдат разгледани“ - включително „екзистенциална заплаха“, предупреждават депутати

...
Риши Сунак и други лидери ще обсъдят възможностите и рисковете,
Коментари Харесай

Риши Сунак и други лидери ще обсъдят възможностите и рисковете, произтичащи от на събитието през ноември, проведено на Втория британски База за разбиване на кодове от световната война.

Изображение: Блечли Парк, домът на британските разбивачи на кодове от Втората световна война

Сайтът беше от решаващо значение за развитието на технологията, тъй като Алън Тюринг и други използваха компютри Colossus за дешифриране на съобщения, изпращани между нацистите.

Грег Кларк, председател на комисия и депутат от Консервативната партия, каза, че „силно приветства“ срещата на върха – но предупреди, че може да се наложи правителството да покаже „по-голяма спешност“, за да гарантира, че потенциалното законодателство няма бързо да остарее като .

12-те предизвикателства, които комисията каза, че „трябва да бъдат разгледани“, са:

1. Екзистенциална заплаха – ако, както някои експерти предупредиха, ИИ представлява голяма заплаха за човешкия живот, тогава регулирането трябва да осигури защита на националната сигурност.

2. Пристрастия – AI може да въведе нови или да увековечи съществуващите пристрастия в обществото.

3. Поверителност - чувствителна информация за лица или фирми може да се използва за обучение на AI модели.

4. Погрешно представяне – езикови модели като ChatGPT могат да създадат материал, който представя погрешно нечие поведение, лични възгледи и характер.

5. Данни - огромното количество данни, необходими за обучение на най-мощния AI.

6. Компютърна мощност - по подобен начин, разработването на най-мощния AI изисква огромна изчислителна мощност.

7. Прозрачност – AI моделите често се затрудняват да обяснят защо произвеждат определен резултат или откъде идва информацията.

8. Генеративните модели за авторско право, независимо дали са текст, изображения, аудио или видео, обикновено използват съществуващо съдържание, което трябва да бъде защитено, за да не подкопава творческите индустрии.

9. Отговорност – ако инструментите на ИИ се използват за причиняване на вреда, политиката трябва да установи дали разработчиците или доставчиците носят отговорност.

10. Заетост – политиците трябва да предвидят вероятното въздействие върху съществуващите работни места, което възприемането на AI ще има.

11. Откритост – компютърният код зад моделите на ИИ може да бъде публично достъпен, за да позволи по-надеждно регулиране и да насърчи прозрачността и иновациите.

12. Международна координация – разработването на всяка регулация трябва да бъде международно начинание и срещата на върха през ноември трябва да приветства „възможно най-широк кръг от държави“.

Прочетете още:
Как AI може да трансформира бъдещето на престъпността
Авторът приема AI, за да помогне при писането на романи

„САЩ и Китай трябва да си сътрудничат“ за AI

„Вълнуващ“ потенциал за AI в NHS

Г-н Кларк също подчерта здравеопазване като мястото, където се крият „най-вълнуващите“ възможности за ИИ.

Той вече се използва в NHS за разчитане на рентгенови лъчи, докато изследователите проучват как може да се използва за прогнозиране на увреждания в дългосрочен план състояния като диабет.

Той каза, че изкуственият интелект може да се използва, за да направи лечението „все по-персонализирано“, но повтори загрижеността на доклада относно потенциалните пристрастия, включени в данните за обучение на всеки модел на изкуствен интелект.

„Ако провеждате медицински изследвания върху конкретна проба или етническо малцинство, тогава данните, върху които е обучен ИИ, може да означават, че препоръките са неточни“, добави той.

Правителството иска „пропорционален“ подход

Комисията каза, че ще публикува финализиран набор от препоръки за правителството „навреме“.

Тя иска всяко предложение за законодателство за ИИ да бъде представено на депутатите по време на следващия парламент, който започва през септември след лятната ваканция.

Говорител на правителството заяви, че то се е ангажирало с „пропорционален и адаптивен подход към регулирането“ и посочи първоначален фонд от £100 милиона, заделен за безопасното разработване на модели на ИИ в Обединеното кралство.

Те добавиха: „ИИ има огромен потенциал да промени всеки аспект от живота ни и ние дължим на нашите деца и внуци да използваме този потенциал безопасно и отговорно.“

Източник: skynews.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР