Експертите на Google DeepMind представиха подробен технически доклад за безопасното разработване на изкуствен общ интелект (AGI). Според тях, въпреки съмненията на скептиците, появата на AGI може да се случи в близко бъдеще.
Какво е Google DeepMind
Google DeepMind е британска компания за изкуствен интелект (AI), основана през 2010 г. и по-късно придобита от Google през 2014 г.
DeepMind е специализирана в създаването на AI системи, които могат да учат и да вземат решения чрез имитиране на човешки когнитивни процеси. Компанията е известна с постиженията си в областта на машинното обучение и невронните мрежи, както и създаването на алгоритми за решаване на сложни проблеми.
В допълнение към игрите, DeepMind работи активно върху използването на AI в медицината, разработвайки алгоритми за диагностициране на заболявания като диабетна ретинопатия и рак. През 2016 г. DeepMind пусна системата AlphaZero, която демонстрира способността да се учи и да се печели в шах и други игри без предварително човешко участие.
Компанията също така разработва системи за подобряване на производителността на сървърите на Google, използвайки AI за оптимизиране на енергийната ефективност на центровете за данни.
Компанията продължава да привлича вниманието на световната научна общност благодарение на своите иновации и ангажимент за създаване на по-добри и по-безопасни AI технологии.
Какво е AGI (общ изкуствен интелект)
Така нареченият изкуствен общ интелект (Artificial General Intelligence) е система с интелект и способности, сравними с човешките.
Ако съвременните AI системи наистина се движат към AGI, тогава човечеството трябва да разработи нови подходи, за да предотврати превръщането на такава машина в заплаха.
За съжаление все още нямаме нищо толкова елегантно като Трите закона на роботиката на Айзък Азимов. Изследователи от DeepMind се справят с този проблем и публикуваха нова бяла книга (PDF), която обяснява как безопасно да се разработи AGI. Документът е достъпен за изтегляне и има 108 страници (без списъка с литература).
Въпреки че много експерти смятат AGI за научна фантастика, авторите на документа предполагат, че такава система може да се появи до 2030 г. В тази връзка екипът на DeepMind реши да проучи потенциалните рискове, свързани с появата на синтетичен интелект с човешки характеристики, който, както признават самите изследователи, може да доведе до „сериозна вреда“.
Четири вида AGI заплахи
Екипът на DeepMind, ръководен от съоснователя на компанията Шейн Лег, идентифицира четири категории потенциални заплахи, свързани с AGI : злоупотреба, неспазване на намерението, грешки и структурни рискове. Първите две категории са разгледани най-подробно в документа, докато последните две са разгледани само накратко.
Злоупотреба
Първата заплаха е злоупотреба. По същество това е подобно на рисковете, свързани с настоящите AI системи. Въпреки това AGI по дефиниция ще бъде много по-мощен и следователно потенциалната вреда ще бъде много по-голяма. Например, човек с лоши намерения може да използва AGI, за да намери уязвимости от нулевия ден или да създаде дизайнерски вируси за използване като биологично оръжие.
DeepMind подчертава, че от компаниите, разработващи AGI, се изисква да провеждат стриктно тестване и да прилагат стабилни протоколи за сигурност след обучение на модела. По същество са необходими по-силни AI „ограничители“.
Предлага се също да се потиснат напълно опасните способности (т.нар. „отучаване“), въпреки че все още не е ясно дали това е възможно без значително ограничаване на функционалността на моделите.
Несъответствие с умисъла
Тази заплаха е по-малко уместна за съвременните генеративни ИИ. За AGI обаче може да се окаже фатално – представете си машина, която вече не слуша разработчиците си. Това вече не е фантазия в духа на „Терминатор“, а реална заплаха: AGI може да предприеме действия, за които знае, че са в противоречие с намеренията на създателите му.
Като решение DeepMind предлага използването на „подобрено наблюдение“, при което две копия на AI взаимно проверяват констатациите си. Също така се препоръчва провеждането на стрес тестове и постоянно наблюдение, за да забележите бързо признаци, че AI е „извън контрол“.
Освен това се предлага да се изолират такива системи в защитени виртуални среди с пряк човешки контрол – и винаги с „червен бутон“.
Грешки
Ако AI причинява вреда несъзнателно и операторът не е предположил, че това е възможно, това е грешка. DeepMind подчертава, че военните може да започнат да използват AGI поради „конкурентен натиск“ и това крие риск от по-сериозни грешки, тъй като функционалността на AGI ще бъде много по-сложна.
Тук има малко решения. Изследователите предлагат да се избягва прекомерното засилване на AGI, да се въвежда постепенно и да се ограничават правомощията му. Предлага се също командите да се предават през „щит“ – междинна система, която проверява тяхната безопасност.
Структурни рискове
Последната категория са структурните рискове. Това се отнася до непредвидените, но реални последици от въвеждането на многокомпонентни системи в една вече сложна човешка среда.
AGI може например да генерира толкова убедителна дезинформация, че вече не можем да вярваме на никого. Или – бавно и неусетно – да започне да контролира икономиката и политиката, например, като разработи сложни тарифни схеми. И един ден може да открием, че вече не ние контролираме машините, а те контролират нас.
Този вид риск е най-трудно предвидим, тъй като зависи от много фактори: от човешкото поведение до инфраструктурата и институциите.
Какво ще бъде AGI след пет години?
Никой не знае със сигурност дали интелигентните машини ще се появят след няколко години, но мнозина в индустрията вярват, че е възможно. Проблемът е, че все още не разбираме как човешкият ум може да бъде превърнат в машина. Наистина сме свидетели на огромен напредък в генеративния AI през последните години, но ще доведе ли това до пълноправен AGI?
DeepMind подчертава, че представената работа не е окончателно ръководство за сигурността на AGI, а само „отправна точка за изключително важни дискусии“. Ако екипът е прав и AGI наистина е в рамките на пет години, подобни дискусии трябва да започнат възможно най-скоро.