Скандали в ръководството на OpenAI – компанията, създала чатбота ChatGPT, разкриха, че може да е направен опасен за човечеството пробив в сферата на изкуствения интелект, съобщи „Ройтерс“. Има слухове, че до Борда на директорите е бил изпратен доклад от служители, който представял пред тях „сериозния риск за бъдещето на човечеството“, ако технологията продължи да се развива с тези темпове.
Касае се за разработка на компанията, която засега държи кодовото име Q* („Кю стар“). Тя представлява изкуствен интелект, базиран на невронни мрежи, който владее математиката, решавайки правилно сравнително сложни алгоритмични задачи, чието условие е зададено с текст. Това е нещо, с което досега компютрите изобщо не можеха да се справят. За успешното решение на подобна задача не се изисква само разбиране на математиката, но и на езика и комплексните му форми на изразяване. Q* явно обаче се справя добре и това е уплашило разработчиците.
Най-опасното в случая е, че машината се учи да решава задачите сама, но и с помощта на оператор. Това би могло да означава, че в сравнително кратки срокове – вероятно няколко месеца, ако тя функционира и се обучава постоянно, е напълно възможно да придобие интелект, доближаващ се, ако не и надвишаващ този на човека. С други думи – силен изкуствен интелект или крачка напред към синтетичното съзнание.
Опасностите
Рискът от силен изкуствен интелект (AGI) не бива да се подценява. Както някои от най-големите разработчици на системи с изкуствен интелект написаха преди няколко месеца, нужно е при работата с тази технология да се подсигури, че крайният продукт ще харесва човечеството и ще е съгласен с неговите идеали. Филми като „Терминатор“, „Матрицата“, „Изкуствен интелект“, „Екс Макина“, дори анимации като Wall-E добре показват какви може да са последиците от т.нар. „подивял ИИ“. Не е случайно, че дори сега, когато сме на ръба на историческо откритие, учените са предпазливи в разработките си. Дори повечето от „агентите“ с изкуствен интелект, които и сега са пуснати за употреба, не работят с интернет или са допуснати до т.нар. „пясъчник“ – ограничено поле за техните функции, което наподобява реалните условия, но е напълно откъснато от света.
Проблемът е, че машините от този тип имат способността да се самообучават. Съответно и да се самоподобряват, ако им бъде разрешено. В един хипотетичен случай, в който те бъдат „пуснати“ на свобода, последиците са непредсказуеми.
В рамките на часове или дни система, въоръжена с AGI, може да научи всичко за човечеството чрез интернет. Може да разбере неща, които ние не разбираме, да направи неща, които ние не можем да спрем. Да стане „по-умно“ от колективното съзнание на цялото човечество. Това, както пише Върнър Виндж още през 1983 г., се нарича
сингулярност
Името идва от термина за центъра на астрономическите черни дупки. За него нямаме информация, защото след хоризонта на събитията, няма как да видим нищо, освен тъмнина.
Технологичната сингулярност е хипотетичната бъдеща точка от време, в която технологичният прогрес става неконтролируем от човечеството и в този смисъл – необратим. Няма модел, който да може с категоричност да предскаже кога ще стигнем до тази точка, но по пътя, по който сега сме тръгнали, това е неизбежно. Неизвестно е и какво ще се случи след това.
Един от възможните варианти за достигане на въпросната сингулярност е именно създаването на AGI – машина, която има капацитета на човешкия ум, но може да „разсъждава“ много, много по-бързо и да съхранява и обработва много, много, много повече информация. Веднъж създадена, тя ще сложи край на досегашното общество, защото ще реши всички проблеми
Или ще го унищожи
Няма как да предположим какво ще „мисли“ една такава машина за човечеството – за създателите си. Веднъж получила достъп до цялата информация, няма гаранция, че няма да реши, че ние сме излишни за планетата и да открие най-лесния начин да ни изтреби напълно, за да спаси Земята, предупреждават изследователите. Това не е задължително да се случи чрез ядрени оръжия, както в много от фантастичните филми описват събитията от „края на света“. Има по-елегантни начини, някои от които самите ние вероятно няма да сме измислили в онзи хипотетичен момент.
Към днешна дата в онлайн пространството има пуснати няколко модела на изкуствен интелект, ако може да се нарече така той, които са свободни за ползване. Два от най-популярните са MidJourney и ChatGPT. Отделно от тях има и други „приложения“, които намират употреба за други неща извън генерирането на снимки по текст и нов текст по зададени критерии. Има например изкуствен интелект, който подобрява качеството на звук. Има такива, които променят глас. Има такива, които разпознават лица и ги свързват с хора.
Има и такива, за които нищо не подозираме. Но на този етап тези приложения, поне пуснатите за публична употреба, са далеч от опасни. Поне за цялостното съществуване на човечеството. Но със скоростта, с която се развива технологията и с финансите, които се наливат в нея в последните 2 години, това много драстично и много бързо може да се промени. Особено ако попадне в грешните ръце.
Какви може да са рисковете?
Има безброй рискове, свързани с Изкуствения интелект (AI), с които се сблъскваме в живота си днес. Не всеки риск от AI е толкова голям и тревожен, колкото роботите убийци или разумния AI. Някои от най-големите рискове включват неща като поверителност на потребителите, предубедено програмиране, опасност за хората и неясни правни разпоредби. Едно от най-големите опасения, които експертите цитират, е около поверителността на потребителските данни, сигурността и AI. Много компании вече избягват нарушенията на поверителността на данните с техните практики за събиране и използване и експертите се притесняват, че това може да се увеличи, когато започнем да използваме повече AI.
Друго голямо безпокойство е, че в момента има малко регулации относно AI на национално или международно ниво. ЕС въведе „Закона за Изкуствения интелект“ през април 2021 г., за да регулира системите, считани за рискови, актът обаче още не е минал.
Често срещан мит е, че тъй като AI е компютърна система, той по своята същност е безпристрастен. Това обаче е невярно. Той е толкова безпристрастен, колкото и данните и хората, обучаващи програмите. Така че, ако данните са погрешни, безпристрастни или пристрастни по някакъв начин, полученият AI също ще бъде пристрастен.
Има опасения за физическа безопасност. През 2018 г. самоуправляваща се кола, използвана от компанията за споделено пътуване Uber, блъсна и уби пешеходец при пътен инцидент. В този конкретен случай съдът постанови, че резервният шофьор на самоуправляващата се кола е виновен, тъй като е гледал шоу на телефона си, вместо да обръща внимание на обкръжението си. Ако компаниите разчитат твърде много на прогнозите на AI за това кога поддръжката ще бъде извършена без други проверки, това може да доведе до неизправности в машините, които да наранят работници. Моделите, използвани в здравеопазването, могат да причинят погрешни диагнози.
Има и други, нефизически начини, по които изкуственият интелект може да навреди на хората, ако не бъде внимателно регулиран. AI може да причини проблеми с дигиталната безопасност, финансовата безопасност или капитал.
И накрая, въпросът за правната отговорност. Когато нещо се обърка, кой е отговорен? Самият AI? Програмистът, който го е разработил? Фирмата, която го е внедрила? Или, ако е участвал човек, вината негова ли е?
Хипотетичните AI рискове може да не са толкова екстремни, колкото във филмите за научна фантастика, но все още са повод за безпокойство. Това са рисковете нещо, което използва AI, да бъде програмирано да направи нещо опустошително. Най-добрият пример за това е идеята за „автономни оръжия“, които могат да бъдат програмирани да убиват хора по време на война. Друго притеснение, донякъде свързано с последното, е, че AI ще получи полезна цел, но ще развие разрушително поведение, докато се опитва да постигне тази цел.
Пример за това може да бъде AI система, натоварена с нещо полезно, като например помощ за възстановяване на екосистемата на застрашено морско създание. Но при това може да реши, че други части от екосистемата са маловажни и да унищожи местообитанията им. И също така може да разглежда човешката намеса за коригиране или предотвратяване на това като заплаха за целта си.