
На 11 септември 2023 г. в Лондон се проведе дебат на тема измеренията на революцията в областта на изкуствения интелект, ползите и рисковете за човечеството с участието на израелския историк и писател Ювал Ноа Харари, автор на бестселърите „Sapiens“, „Homo Deus“ и „21 урока за 21-ви век“, и британския предприемач Мустафа Сюлейман, съосновател на компаниите за разработване на изкуствен интелект DeepMind (днес част от Google) и Inflection AI (на която и до днес е главен изпълнителен директор) и автор на излязлата на английски преди дни книга The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma („Прииждащата вълна: технологиите, властта и най-голямата дилема пред човечеството през XXI век“).
Портал „Култура“ публикува дебата между двамата, модериран от Зени Минтън-Бедъс, главна редакторка на сп. The Economist, в съкратен и адаптиран вид на български.
Зени Минтън-Бедъс (ЗМБ): Мустафа, обрисувай ни света, да речем, след пет години. Как ще взаимодействаме с изкуствения интелект?
Мустафа Сюлейман (МС): През последното десетилетие ние, хората, станахме много добри в класифицирането на информация – можем да я организираме, можем да четем съдържанието на изображения, да транскрибираме аудио в текст. На следващия етап от този процес, който наблюдаваме в момента в резултат на революцията в разработването на генеративен изкуствен интелект, вече можем да създаваме нови изображения, ново видеосъдържание, ново аудиосъдържание, нов език. Покрай възхода на ChatGPT и други модели на изкуствен интелект през последната година виждаме колко прецизни и фини са тези нови езикови модели. През следващите пет години водещите компании в сектора ще обучават модели, които са 1000 пъти по-големи от GPT 4, а с увеличаването на компютърната мощ обикновено се появяват нови способности. Според прогнозите ни през следващите пет години моделите ще се развият дотам, че ще могат да генерират поредица от действия във времето. Това е така нареченият изкуствен способен интелект (artificial capable intelligence, ACI), който може не само да казва неща, а и да прави неща.
Аз измислих модерен вариант на теста на Тюринг, който има за цел да оцени тъкмо тази способност. Класическият тест на Тюринг е замислен да оцени какво една програма може да каже, приемайки думите ѝ за проява на разум. Днес може да се спори дали моделите на изкуствен интелект не са минали теста на Тюринг, или ще го минат през следващите пет години. Основният въпрос е как можем да измерим какво могат да правят моделите. Предложеният от мен тест изглежда така: моделът разполага с бюджет за инвестиране в размер на 100 000 долара и за три месеца има за задача да разработи нов продукт, да проучи пазара, да изготви проект за производството на продукта, да се свърже с производител, да организира процеса на производство, да се договори за цената, да подаде заявка за доставянето на продукта и да събере приходите от продажбите. Според мен е доста вероятно до пет години да се появи модел на изкуствен способен интелект (ACI), който е в състояние да изпълнява самостоятелно не всички, но по-голямата част от тези задачи. Той ще може да провежда телефонни разговори с хора, за да преговаря с тях, да се обажда на други модели на изкуствен интелект, за да определя правилната последователност от стъпки например по веригата на доставките, и разбира се, ще се научи да използва приложни програмни интерфейси (application programming interface, API). Можете да си представите приложението на тези способности на модела в много сектори на икономиката.
ЗМБ: Ювал, като човек, който не използва смартфон кой знае колко, ужасяваш ли се от описаната картина? Смяташ ли, че тя може да се превърне в реалност през следващите пет години?
Ювал Ноа Харари (ЮНХ): Гледам много сериозно на всичко това. Не съм от сектора, така че не мога да коментирам колко вероятно е това да се случи, но от това, което чувам, на мен като историк ми се струва, че идва краят на историята, доминирана от човечеството. Не говоря непременно за унищожаване на човечеството, а за прехвърлянето на власт и контрол от човешките същества към нечовешки разум. Историята ще продължи, само че контролът ще е в ръцете на някой друг, защото, ако съдим по казаното от Мустафа, след пет години ще съществува технология, която може самостоятелно да взема решения и самостоятелно да генерира нови идеи. Никоя от досегашните технологии – от каменния нож до атомната бомба – не е била способна да взема решения. Решението за хвърлянето на бомбата над Хирошима не е взето от атомната бомба, а от президента Труман. По същия начин технологии като радиото и печатарската преса са можели да възпроизвеждат нашите идеи. Сега обаче имаме технология, способна да генерира изцяло нови идеи, при това в мащаб далеч отвъд човешките възможности.
ЗМБ: Това е съществена промяна. Преди да разгледаме потенциалните опасности, нека първо да поговорим за многобройните и значими потенциални ползи и възможности за справянето с невероятно сложни проблеми.
МС: Всяко човешко творение в историята е продукт на нашата интелигентност. Нашата способност да правим прогнози и след това да предприемаме действия, за да променяме посоката на развитие на света, е в основата на създаването на продуктите и компаниите, които сме създали, на всяка форма на добавена стойност, променила последния век. Само допреди един век за производството на един килограм зърно е бил необходим 50 пъти повече труд в сравнение с днес. Посоката на развитие в областта на изкуствения интелект вероятно ще прилича на ръста в производителността в земеделието. Всичко, което ще създаваме с новите инструменти, вероятно ще генерира много по-голяма стойност от когато и да било преди.
Важно е да кажем, че тези инструменти не са автономни по подразбиране. Споменатите способности не произлизат по естествен път от самите модели; ние сме тези, които се опитват да развиват тези способности у тях. Предизвикателството пред нас е да вземаме много добре обмислени, прецизни и внимателни решения относно способностите, които искаме да притежават тези модели, и ограниченията, които създаваме във връзка с тях. Изключително важно е да не придаваме антропоморфен вид на тези модели, да не им приписваме потенциални намерения или автономия. От гледна точка на управлението на тази вълна, ако искаме да я държим под наш контрол, предизвикателството пред нас през следващите няколко десетилетия е да гарантираме, че ние ще продължим да бъдем тези, които налагат ограничения върху посоката на развитие на технологиите.
ЗМБ: Но подобренията, които ще произтекат от технологиите, ще включват например съществени подобрения в човешкото здраве, ускоряване на създаването на иновации, значителни промени в науката, потенциално по-лесно справяне с климатичните промени и други големи предизвикателства, пред които сме изправени, нали така?
МС: Всеки от нас ще разполага с персонален изкуствен интелект в джоба си – умен и способен помощник, който постоянно ще организира информацията, която достига до нас, съобразно нейната приоритетност, така че ние да получаваме в синтезиран вид точно тази информация, от която се нуждаем, за да предприемаме действие във всеки момент. Това със сигурност ще ни направи много по-умни и по-способни.
ЗМБ: Ювал, тази част звучи ли ти примамливо?
ЮНХ: Да, определено! Ако нямаше никакви потенциални ползи, нямаше да седим тук и да си говорим, никой нямаше да разработва тези технологии, никой нямаше да инвестира в тях. Потенциалните ползи са толкова значителни – много по-добро здравеопазване, по-висок стандарт на живот, решаване на проблеми като климатичните промени – и тъкмо за това ние сме склонни да поемем огромните рискове, произтичащи от тези технологии. Просто аз се притеснявам, че в крайна сметка сделката няма да си заслужава. Смятам, че идеята за разум е надценена. Хомо сапиенс е най-интелигентното същество на планетата, но и най-разрушителното, а в някои отношения и най-глупавото, защото е единственото, което поставя под въпрос самото оцеляване на екосистемата.
Процесите, които наблюдаваме и които предстоят, не са предопределени. Аз не мисля, че сме обречени. Ако смятах така и ако действително не можехме да предотвратим най-лошия развой на събитията, какъв щеше да е смисълът да обсъждаме тези въпроси? Не знам дали имаме още 5, 10 или 30 години, но все още сме в състояние да влияем на тези процеси и да определяме посоката на развитие. От историята знаем, че една и съща технология може да се използва и развива по различни начини. Затова трябва да помислим много внимателно какви технологии искаме да разработваме.
ЗМБ: Сега ми се иска да разгледаме някои от най-обсъжданите рискове. Да започнем с въпроса дали изкуственият интелект е способен да заличи всички професии, защото е по-добър от хората във всяко отношение. Аз съм икономистка по образование и знам, че до този момент това не се е случвало, но ще се радвам да чуя какво мислите вие за рисковете в това направление.
МС: Отговорът зависи от времевия хоризонт. Според мен през следващите 10–20 години няма да има значителна заплаха за работните места, тъй като има достатъчно търсене и съответно ще има достатъчно възможности за работа. Ако обаче говорим за следващите 30 до 50 години, тук вече е много трудно да си представим какво ни очаква. Най-малкото, което можем да кажем, е, че преди си мислехме, че тези модели никога не биха могли да проявяват емпатия, че добрината, разбирането и грижата за другите са качества, които винаги ще си останат достояние единствено на хората. Мислехме си, че изкуственият интелект никога няма да може да проявява креативност, че ние, хората, винаги ще бъдем единствените, които творят, изобретяват нови неща и правят удивителни скокове между идеи. Днес е очевидно, че моделите се справят невероятно добре в демонстрирането на тези способности. За това ми се струва, че за известен период изкуственият интелект подобрява уменията ни, прави ни по-бързи, по-продуктивни, по-прецизни, по-креативни, по-съпричастни и т.н. Когато обаче погледнем няколко десетилетия напред, е много по-трудно да кажем кои умения ще продължат да бъдат запазена марка на човечеството с оглед на факта, че тези модели видимо са много способни. Тук на преден план излиза предизвикателството, свързано с удържането на тези процеси. В глобален план трябва да решим кое е допустимо и кое не е допустимо през следващите 30 години, а това се свежда до политика и управление.
ЮНХ: Що се отнася до работните места, аз съм съгласен, че е малко вероятен сценарий, при който няма да има работа за никого, поне в следващите няколко десетилетия. Трябва обаче да разгледаме по-внимателно промените във времеви и пространствен план. Във връзка с времето опасността е преходният период – някои професии ще изчезнат, ще се появят нови и хората ще трябва да се прехвърлят от една работа на друга. Не забравяйте, че Хитлер идва на власт в Германия заради три години с ниво на безработица от 25%. Така че тук не говорим за изчезването на всички работни места, а за това, че заради сътресенията на трудовия пазар, предизвикани от изкуствения интелект, ако например имаме три години с безработица от 25%, това би могло да предизвика огромни социални и политически трусове. Другият, дори по-голям проблем е свързан с пространството – в едни части на света ще изчезват работни места, в други – ще се появяват нови. Може да станем свидетели на ситуация, при която да има огромен брой нови работни места в Калифорния, Тексас или Китай, но в същото време цели страни да загубят своята икономическа база – например може да има много по-голямо търсене на компютърни инженери и обучители по йога в Калифорния, но да няма никакво търсене на работници в текстилната промишленост в Пакистан в резултат на автоматизацията в този сектор. Затова въпросът не се свежда единствено до общия брой на работните места по света, а засяга и разпределението на тези работни места между отделни държави.
МС: Нека също така не забравяме, че работата не е крайната цел, тя не е нашето желано крайно състояние. Ние не сме създали цивилизацията, за да имаме пълна трудова заетост, а за да намалим страданието за всички хора. Стремежът към изобилие е съвсем реален и трябва да намерим начин да произвеждаме повече с по-малко. Посоката, в която вървим в демографско, географско и климатично отношение, означава, че ще е необходимо да разработваме тъкмо такъв тип инструменти. Много хора имат изтощителна работа, която не им доставя удоволствие, което е ужасно. Трябва да се съсредоточим върху нуждата да се възползваме от стойността, която тези модели ще генерират, и после да мислим за преразпределянето ѝ. Трябва да управляваме този преход чрез данъчни политики.
ЮНХ: Аз смятам, че тези технологии ще създадат огромни нови богатства. Не съм обаче толкова сигурен, че правителствата ще съумеят да преразпределят тези богатства по справедлив начин на глобално ниво. Просто не виждам как американското правителство ще наложи по-високи данъци на корпорациите в Калифорния и с тези пари ще помага на хора в Пакистан, загубили работата си в текстилната промишленост например, за да се преквалифицират според нуждите на новия трудов пазар.
ЗМБ: Така стигаме до втория потенциален риск вследствие на изкуствения интелект, а именно опасността, на която е изложена политическата система като цяло. Ювал, в един от твоите текстове ти ни напомняш, че либералната демокрация на практика се заражда вследствие на Индустриалната революция и че днешната политическа система е продукт на икономическата система, от която сме част. Ако икономическата система претърпи фундаментална промяна, тогава либералната демокрация във вида, в който я познаваме, ще оцелее ли?
ЮНХ: Тук не става дума само за Индустриалната революция, а и за появилите се през XIX и XX век информационни технологии. До XIX век има примери за демокрация в много малък мащаб, например в племена на ловци събирачи и в градове държави като древна Атина, но доколкото съм запознат, няма примери за милиони хора, разпръснати върху голяма територия в границите на една държава, които да са успели да изградят и да поддържат демократична система. Защо? Ами защото демокрацията е форма на разговор, а в онези времена не е имало информационни и комуникационни технологии, които да позволяват на милиони хора в една държава да разговарят помежду си. Това става възможно с появата на вестника и впоследствие на телеграфа, радиото и телевизията. Съвременната демокрация е изградена върху определени информационни технологии. В момента, в който тези технологии се променят, въпросът дали демокрацията може да оцелее остава отворен.
Най-голямата опасност днес е обратна на предизвикателствата през Средновековието. В Средновековието е било невъзможно милиони хора да водят разговор помежду си просто защото не са имали необходимите средства за комуникация. През XXI век този разговор би могъл да стане невъзможен по друга причина – загубата на доверие между нас. Защото днес можеш да влезеш в интернет, основната платформа за разговор на ниво държава, и да се окаже, че онлайн пространството е наводнено от нечовеци, които се представят за хора – говориш с някого, но нямаш представа дали изобщо от другата страна стои човек; гледаш видео или слушаш аудиосъдържание, но нямаш представа дали е автентично, или фалшиво, дали е създадено от човек. В такава ситуация разговорът прекъсва, освен ако не вземем мерки.
ЗМБ: Това ли имаш предвид, когато казваш, че има опасност изкуственият интелект да хакне операционната система на човечеството?
ЮНХ: Това е един от аспектите. Ако ботовете могат да изглеждат и да се държат като хора, се получава картина, подобна на тази във финансовата система. С изобретяването на парите се появяват и възможности за изработването на фалшиви пари. Единственият начин да се предотврати рухване на финансовата система е бил да се въведат много строги регулации срещу фалшивите пари, защото хората са осъзнавали, че ако позволиш разпространението на фалшиви пари, това ще доведе до загуба на доверието в парите. В момента се намираме в аналогична ситуация по отношение на политическия разговор, защото сега е възможно създаването на фалшиви хора. Ако не ограничим тази практика със забрана, доверието помежду ни ще се изпари.
МС: Демократизацията на правото да разпространяваш информация има основна роля в историята на човечеството през последните 30 години. Днес стотици милиони хора могат да създават подкасти и блогове и са свободни да споделят мислите си онлайн. В общи линии аз смятам, че това е невероятно положително развитие. Назад във времето мнозина се опасяваха, че това ще унищожи доверието в големите медии и в институциите. Според мен обаче се приспособихме доста добре. Да, има големи вълнения и нестабилност, но с всяка следваща технологична вълна напасваме способността си да разпознаваме истината и да отхвърляме глупостите. Освен това със следващата вълна ще се появят технически и управленски механизми за решаване на проблеми като възможностите за създаване на ботове, държащи се като хора. И да, тази практика трябва да се забрани.
ЮНХ: Има механизми, но трябва да ги вкараме в употреба. Прекрасно е, че повече хора получиха възможност да упражняват правото си на изразяване. Но с ботовете е различно – те нямат и не би трябвало да имат свобода на словото. Вярно е, че през последните 30 години постигнахме чудесен напредък в някои отношения, но аз продължавам да се изумявам от факта, че в страни като САЩ, донякъде Великобритания и родината ми Израел разполагаме с най-могъщите информационни технологии в историята и в същото време сме неспособни да разговаряме един с друг. Струва ми се, че доверието помежду ни се изпарява, разговорът се разпада, не можем да постигнем съгласие дори по въпроса кой е спечелил последните избори – най-базовият факт в една демокрация. В миналото също сме имали огромни разногласия, но смятам, че днешната ситуация е различна. Не съм сигурен каква е причината, но случващото се е наистина обезпокоително.
ЗМБ: Всъщност ние [сп. The Economist] разгледахме въпроса за потенциалното влияние на изкуствения интелект върху изборите и върху политическата система и заключихме, че изкуственият интелект вероятно би имал относително слабо влияние в краткосрочен план, тъй като нивото на доверие [в системата] вече и бездруго е много ниско. И двамата казвате, че е нужна регулация. Преди да поговорим как би изглеждала тази регулация на практика, нека отбележим, че структурата, от която се очаква да регулира тези процеси, е националната държава, националните правителства. Същевременно обаче в книгата си ти, Мустафа, споделяш притеснението си, че една от потенциалните опасности в резултат на напредъка в областта на изкуствения интелект е ерозията на националната държава. Можеш ли да ни обясниш в какво се изразява тази опасност?
МС: Предизвикателството е, че тъкмо в момента, когато имаме нужда от националната държава като институция, която да ни държи отговорни, тя бере душа заради липсата на доверие, огромната поляризация и разрива в политическия процес. Трябва да добавим също, че най-новите модели на изкуствен интелект се разработват от частни компании и от разработчици, ползващи софтуер с отворен код. Важно е да разберем, че най-големите компании за изкуствен интелект не са единствените играчи в това поле; тези технологии са широкодостъпни във вид на софтуер с отворен код, който всеки може да си свали безплатно от интернет. Тези модели вероятно изостават с година или година и половина от водещите в индустрията. Предизвикателството е двойно: какво можем да направим, за да държим източниците на централизирана възраст отговорни, когато съществуващият механизъм е повреден, и как можем да адресираме въпроса с масовото разпространение на технологии, когато не е ясно как можем да спрем разпространението в интернет на каквото и да било.
Това, което виждаме напоследък, е появата на инициативи, плод на самоорганизация от страна на компании, които разговарят една с друга и доброволно приемат да упражняват надзор помежду си под формата на ревизии, съгласуване на способностите, които няма да развиват в своите модели, и т.н. Видно е, че това вдъхва само частична увереност у хората, а може и изобщо да не ги успокоява, но аз смятам, че това е правилната първа стъпка, имайки предвид, че досега не сме демонстрирали големите вреди, които могат да произтекат от изкуствения интелект. Това е един от първите случаи, когато започваме да възприемаме принципа на предпазливостта спрямо вълна на развитие на технологии с широко приложение. Аз съм голям поддръжник на този подход и смятам, че би трябвало да вървим в посока на принципа „Не вреди“. Това може да означава, че трябва да оставим някои от ползите на дървото и да не берем някои от плодовете за известно време, но това е правилният компромис. В настоящия момент трябва да действаме предпазливо. Нещата се ускоряват изключително бързо и не можем да намерим оптималния баланс между вредите и ползите, докато не видим как ще започне да се разгръща тази вълна.
ЗМБ: Хубаво е, че мислим по тези въпроси отрано. Така стигаме до най-важната част от разговора ни – какво правим оттук насетне? Мустафа, в книгата си ти предлагаш план за действие в 10 точки. Какво трябва да направим на ниво общество и на ниво правителства, за да гарантираме, че ще можем да се възползваме от придобивките от тези технологии, но успоредно с това да минимизираме рисковете?
МС: Има някои много практични мерки. Например можем целенасочено да поставяме моделите под максимално голям стрес, за да тестваме как работят и да идентифицираме слабостите им – да ги провокираме например да ни посъветват какво да направим, за да създадем биологично или химическо оръжие, или бомба, или пък да ги предизвикаме да демонстрират сексизъм, расизъм или някакъв тип предубеденост. Пускането на моделите през изминалата година даде възможност на всички ни да видим не само колко добри са те, а и да си дадем сметка за слабостите им. Този процес на тестване трябва да е открит за обществото. Затова аз съм голям привърженик на общността, работеща със софтуер с отворен код, в сегашния ѝ вид – разработчиците могат да си играят с тези модели и да се убедят колко трудно е създаването на способностите, от които понякога се страхуваме, защото си мислим, че моделите са предопределени да бъдат манипулативни и като цяло ужасяващи.
Второто, което трябва да правим, е да споделяме добрите практики. Безопасността ще се превърне в актив и конкурентно предимство – аз ще мога да предложа по-добър продукт на потребителите, ако разполагам с по-безопасен модел. Но разбира се, трябва да има и изискване да съобщавам за уязвимости и слабости в модела, в случай че открия такива, както се процедира от десетилетия например в авиацията, където при значим инцидент, свързан с безопасността на самолетите, информацията от черната кутия се споделя и това е страхотно, а летенето със самолет е един от най-безопасните начини за придвижване. Така че има прецедент, който можем да следваме.
Аз също така споделям мнението, че вероятно е време изрично да заявим, че не трябва да позволяваме използването на тези инструменти в предизборни кампании. Все още не можем да им имаме доверие, не сме сигурни, че са стабилни и надеждни, и не е редно да позволяваме на хората да ги използват, за да създават фалшиви дигитални хора, както споменахме по-рано. Има способности, които можем да започнем да забраняваме. Друга такава способност е автономията на моделите на изкуствен интелект. Аз смятам, че към днешна дата автономията представлява доста опасен набор от методи. Тя е вълнуваща и в някакъв момент би могла да предложи невероятни възможности, но засега не сме добре запознати с рисковете и ограниченията. По същия начин, обучаването на изкуствен интелект да актуализира и подобрява собствения си код, сам да си определя цели, сам да си осигурява допълнителни ресурси – всичко това е много опасно. Както разработчиците на ядрени технологии и на всички компоненти по веригата на доставките трябва да бъдат лицензирани, за да имат правото да извършват тези дейности, ще дойде времето, когато, ако някой от големите доставчици на технологии желае да експериментира с въпросните способности, тогава той би трябвало да очаква да бъде подложен на солидни проверки, да бъде лицензиран и да бъде наблюдаван от независим надзорен орган.
ЗМБ: Как можем да постигнем описаното от теб? Имайки предвид сериозния капацитет на софтуера с отворен код, какво би спряло един гневен тийнейджър в някой малък град да разработи изкуствен интелект, който би могъл да спре работата на местната болница? Как бихме могли да предотвратим такъв сценарий в контекста на регулаторната рамка, която ти си представяш?
МС: Част от предизвикателството се изразява в това, че тези модели стават все по-малки и по-производителни, а от историята знаем, че всяка технология, която ние намираме за полезна и ценна, с времето става по-евтина и по-лесна за използване и се разпространява практически навсякъде. Ето защо можем да предположим с висока степен на увереност, че новите технологии също ще станат масово разпространени през следващите две, три или четири десетилетия. Трябва да се изправим очи в очи с тази реалност. Няма никакво противоречие в твърдението, че широкото разпространение на тези технологии изглежда неизбежно, но и че ограничаването на концентрацията на власт е еквивалентен проблем. Няма лесни решения на тези проблеми. Повече от ясно е, че след 30 години всеки, който иска да експериментира в гаража си, ще може да го направи. Достатъчно е да видим как се развива синтетичната биология – вече се предлагат машини за по 20 000 долара, които потенциално могат да ви позволят да синтезирате молекули, които се предават по-лесно или са по-смъртоносни в сравнение с ковид. В този случай проблемът е, че липсва надзор – купуваш си синтезатора, не е необходимо да си преминал през кой знае какво обучение, вероятно знанията на човек с бакалавърска степен по биология са достатъчни, и можеш да експериментираш. Разбира се, тези синтезатори ще стават по-малки, по-лесни и по-широкоразпространени. Аз се опитвам да популяризирам идеята, че това е определящото предизвикателство по отношение на ограничаването на опасностите от технологичното развитие през следващите няколко десетилетия.
ЗМБ: Независимо дали имаме основание да говорим за нова студена вълна, настоящата геополитическа ситуация в света е белязана от голямо напрежение в отношенията между САЩ и Китай. Може ли такова възпиране на технологичното развитие, както го нарича Мустафа, да бъде постигнато при наличието на това напрежение в отношенията между водещите сили в света? Какво може да се направи на международно ниво?
ЮНХ: Според мен това е най-големият проблем. Ако борбата беше между човечеството и тези нови форми на изкуствен интелект с потенциал да проявяват собствена воля, щеше да има начини да ги възпрем. Но когато ние, хората, сме разделени помежду си и сме в състояние на надпревара във въоръжаването, тогава става почти невъзможно да удържим този изкуствен интелект. Можем да се опитаме да попречим на тези модели да действат по своя воля, но знаем, че те ще бъдат много интелигентни и че поне потенциално биха могли да развият собствена воля. Това е много плашеща комбинация, с каквато не сме се сблъсквали преди. Ще ни бъде трудно да ги удържим, защото е възможно те да бъдат много по-интелигентни от нас. Не казвам, че е невъзможно, а че е много, много трудно.
Според мен най-добрият ни ход е да помислим за въвеждането на стриктни регулации, които да указват какво би трябвало и какво не би трябвало да правим, и за създаването на институции с капацитет да разбират много бързо настъпващи промени и да реагират в движение. В момента проблемът е, че единствените институции, които действително разбират какво се случва, са организациите, разработващи тези технологии. Повечето правителства, изглежда, нямат никаква представа какво се случва. Същото се отнася и за университетите; частният сектор разполага с много по-голям икономически ресурс от тях.
Аз оценявам факта, че в частния сектор има хора като Мустафа, които мислят сериозно по въпроса за регулацията и възпирането, но се нуждаем от външен орган, който да влезе в играта. Трябва да създадем нови институции, които да имат човешкия, икономическия и технологичния ресурс, както и доверието на обществото, защото без общественото доверие те няма да могат да изпълняват задачите си. Способни ли сме да изградим такива институции? Аз лично не знам.
ЗМБ: Създателите на тези технологии не могат да предскажат с точност какво ще могат да правят творенията им. Те може и да не са напълно автономни, но ще се приближават към това състояние. Как бихте могли да предотвратите това, [Мустафа]? Няма как да проведете стрес тестове за всички рискове. С увеличаването на способностите на тези модели нараства и рискът от това да разчитаме на вас и другите компании разработчици да ги направите по-безопасни.
МС: Това е причината аз отдавна да призовавам да действаме съгласно принципа на предпазливостта – не като всяваме страх, а като логичен и разумен път напред. Редно е да забраним някои способности и да класифицираме други като високорискови. Проектозаконът за изкуствения интелект, който Европейският съюз (ЕС) подготвя от три години и половина, предлага адекватна, базирана на рисковете рамка, приложима към различни области, като здравеопазване, автономни автомобили и лицево разпознаване. Той по същество забранява някои способности при преминаването на определен праг.
Друга много разумна стратегия е да се създаде разследващ орган, който въз основата на научни факти да определя къде се намираме по отношение на способностите на нашите модели на изкуствен интелект. Не би трябвало вие да получавате доказателствата от мен; редно е да можете да ги получите от независим панел от експерти, на които аз лично бих предоставил достъп до всички процеси в моята компания, ако знам, че може да им се има доверие и че действат безпристрастно. Знам, че много други компании биха направили същото.
ЮНХ: Хората проявяват интерес основно към крайни сценарии, например разработване на изкуствен интелект, способен да създаде вирус, който може да убие всички ни. Нека обаче да разгледаме един пример от по-икономическо естество. В предложения от теб [Мустафа] нов тест на Тюринг изкуственият интелект има за задача да изкара пари. Да допуснем, че разполагаме с изкуствен интелект, който разбира финансовата система по-добре от повечето хора, включително от повечето политици, може би и от повечето банкери, и да си припомним финансовата криза от 2007–2008 г., която започна с т.нар. обезпечени дългови задължения (collateralized debt obligations, CDOs). С изключение на шепа гениални математици на „Уолстрийт“ никой не разбираше тези инструменти, което обяснява и защо никой не ги регулираше и защо почти никой не видя задаващата се катастрофа. Какво би станало, ако изкуственият интелект изобрети нов клас финансови инструменти, които никой не разбира заради изключително сложната математика и огромното количество данни? Изкуственият интелект изкарва милиони долари и съсипва световната икономика, но никой не разбира какво изобщо се случва.
ЗМБ: Що се отнася до забраняването на определени действия, възниква и друг въпрос: разумно ли е една страна да забрани развитието на определени способности, ако друга страна не е склонна да го направи?
МС: Ние в Западния свят трябва заедно да определим своите ценности и да стоим зад тях. Не можем да си позволим да участваме в надпревара към дъното, при която единствената причина да поемем някакъв риск е решението на други да поемат този риск. Ако възприемем този подход и спестяваме усилия, накрая ще платим цената. Трябва да решим какво сме готови да толерираме по отношение на автономния изкуствен интелект, лицевото разпознаване и автономните системи като цяло. Досега подхождаме доста предпазливо. Макар че от техническа гледна точка е напълно възможно да пуснем дрон, който да обикаля над Лондон, ние не виждаме летящи дронове навсякъде, защото сме го забранили. По пътищата все още няма напълно автономни автомобили, независимо че като изключим известен риск от нанасяне на вреди, те функционират доста добре. С това искам да кажа, че регулаторният процес също така е културен процес, в рамките на който решаваме какво е социално и политически допустимо в даден момент.
ЮНХ: Напълно съм съгласен. В много сфери се нуждаем от коалиция на победителите. В наш интерес е да забраним например използването на ботове, представящи се за хора. Някои държави няма да се съгласят да го направят, но това е без значение, защото, ако искаме да предпазим нашите общества, подобен тип регулации са много добра идея.
ЗМБ: Мустафа, ти биеш тревога, но същевременно си пряко въвлечен в създаването на това бъдеще. Какво те мотивира да продължаваш да го правиш?
МС: Аз вярвам, че е възможно да се възползваме от предимствата и да минимизираме недостатъците. PI, съкратено от персонален интелект – изкуственият интелект, който ние [Inflection AI] създадохме, е сред най-безопасните в света днес. За нас безопасността е абсолютен приоритет в разработването на продукта. Прииждащата вълна е неизбежна. Моята цел е да направя всичко по силите си да задам път, по който можем да продължим напред, и да допринеса за разработването на персонален изкуствен интелект, който се придържа към най-високите стандарти за безопасност.
ЗМБ: Ювал, отправяйки поглед към бъдещето, смяташ ли, че един ден човечеството ще съжалява за разработването на тези технологии и за това високо темпо на създаване на иновации, или е редно Мустафа да продължи да прави това, което прави?
ЮНХ: Не мога да предскажа бъдещето, но ще кажа следното: ние инвестираме много ресурси в разработването на изкуствен интелект, но е добре да помним, че собственият ни ум също има огромен потенциал за развитие и че все още не сме разгърнали пълния си потенциал. Ако за всеки долар, който инвестираме в изкуствен интелект, инвестираме по един долар и в развитието на собственото ни съзнание и интелект, смятам, че всичко ще бъде наред. Но не виждам това да се случва, не виждам да се инвестира в развитието на хората така, както се инвестира в машини.
Превод от английски Даниел Пенев
Видеозаписа на дебата между Ювал Ноа Харари и Мустафа Сюлейман ще намерите тук.