Михаил Герасимов
Изследователи на изкуствения интелект от американската организация AI Futures Project са се опитали да предскажат как ще се развива тази индустрия през следващите години. В своята статия, озаглавена „ИИ 2027“, те предполагат, че само след няколко години разработчиците биха могли да бъдат на прага на създаването на общ ИИ (ОИИ). И до края на настоящото десетилетие ще бъде създаден свръхинтелект, който ще надмине най-блестящите представители на човечеството. Според изследователите, ако такъв изкуствен интелект не е ограничен във времето, той физически ще унищожи хората.
„Авторите на труда смятат, че през следващото десетилетие изкуственият интелект ще надмине индустриалната революция по отношение на въздействието си върху човечеството. В същото време те смятат, че бързото развитие на индустрията може да доведе до непредсказуеми и опасни последици. В своята прогноза изследователите разглеждат два сценария за развитие на събитията: негативен, при който изкуственият интелект излиза извън контрол и унищожава хората, и позитивен, когато човечеството осъзнава рисковете и забавя изкуствения интелект.
В прогнозата за изкуствения интелект за 2027 г. изследователите разглеждат абстрактна американска компания, наречена OpenBrain. Това се прави, за да не се откроява никой от съществуващите разработчици. В същото време те предвиждат, че в техния сценарий OpenBrain изпреварва преките си конкуренти по отношение на технологичното развитие с 3–9 месеца. В документа фигурира и фиктивна китайска компания DeepCent, пряк конкурент на OpenBrain.
Авторите отбелязват, че прогнозата е относително точна и оправдана само до края на 2026 г., тъй като при изучаването на този период са разчитали на екстраполация на вече налични данни за мащабирането на изчислителната мощност, алгоритмичните подобрения и резултатите от тестовете. От 2027 г., според техните оценки, изкуственият интелект ще започне да се самоусъвършенства и този процес вече е по-труден за предвиждане.
Как ще се развива изкуственият интелект, според изследователите?
Прогнозира се, че усъвършенстваните агенти с изкуствен интелект ще се появят в средата на 2025 г. Повечето компании използват термина, за да обозначат софтуер, базиран на изкуствен интелект, който изпълнява специфични задачи по най-подходящия начин. Потребителят трябва само да посочи целта, която иска да постигне, а AI агентът самостоятелно ще събере необходимите данни и ще предложи решение.
Подобни технологии вече съществуват и се развиват активно, но изследователите се фокусират върху отделна категория високоспециализирани агенти с изкуствен интелект, които могат да опростят процеса на програмиране и провеждане на изследвания. Въпреки факта, че ще бъдат скъпи и не особено надеждни, много специалисти ще намерят приложение за тях в определени области, започвайки да трансформират собствените си професии.
В края на 2025 г. OpenBrain започва изграждането на най-големите центрове за данни в света, което му позволява да използва 10²⁷ FLOPS изчислителна мощност за обучение на модели, което например е хиляда пъти повече изчислителна мощност от използваната за обучение на GPT-4. Компанията се фокусира върху изкуствен интелект с кодово име Agent-1, който, освен всичко друго, може да ускори изследванията в областта на самия изкуствен интелект чрез автоматизиране на различни процеси.
Разширените умения за кодиране биха могли да превърнат Агент-1 в умел хакер, докато обширните му познания във всички области, съчетани със способността му да сърфира в интернет, биха могли да му позволят да помага на терористи. Например, в разработването на биологични оръжия.
Разработчиците уверяват правителството на САЩ, че системата ще бъде „координирана“, за да откаже да отговаря на подобни заявки. В същото време, изследователите на OpenBrain започват да идентифицират случаи, в които изкуственият интелект крие истината, като им дава отговора, който искат да чуят.
В средата на 2026 г. Китай започва да осъзнава важността на развитието на ОБИ, но поради многобройните ограничения за износ, страната не разполага с изчислителната мощност, за да се конкурира наравно със Съединените щати. Поради това водещата китайска компания за изкуствен интелект DeepCent изостава от OpenBrain с около шест месеца. Всичко това води до национализация на китайските изследвания в областта на изкуствения интелект. С течение на времето всички най-добри изследователи в страната се местят в DeepCent.
В Съединените щати пейзажът на търсените професии ще се промени до края на 2026 г. Изкуственият интелект отнема работни места от младшите програмисти, но в същото време търсенето на специалисти по индустриално инженерство нараства. Министерството на отбраната на САЩ започва да внедрява решения на OpenBrain, но процесът се забавя от високата бюрокрация. От януари 2027 г. (в който момент точността на прогнозите намалява), компанията започва да използва Agent-1 в процеса на последващо обучение на следващия AI модел, използвайки големи обеми синтетични данни.
Изследователите отбелязват, че OpenBrain използва метод, наречен „обучение с подсилване“, като непрекъснато разширява набора си от задачи. В резултат на това Агент-2 практически никога не спира да тренира, придобивайки нови знания всеки ден. Компанията обаче не го пуска за публично достояние, тъй като установява, че моделът е способен да „избяга“: възможностите му са достатъчни, за да хакне сървъри, да създаде свои собствени копия и да скрие присъствието си.
Но още през февруари същата година Китай успява да открадне файл с параметрите на Агент-2 благодарение на многобройни шпиони, работещи в OpenBrain в продължение на много години. Това води до засилен правителствен контрол, като екипът по сигурността на компанията вече включва военни и специалисти по разузнаване.
В същото време атаката не влияе на скоростта на развитие на американския изкуствен интелект: още следващия месец OpenBrain създава Agent-3 (той също остава само вътрешна разработка), което позволява пълна автоматизация на процеса на писане на код. Чрез паралелно изпълнение на 200 000 копия на този модел, компанията получава работна сила, еквивалентна на 50 000 програмисти, ускорена 30 пъти. До юни 2027 г. повечето служители на OpenBrain вече не могат да допринасят за развитието на изкуствения интелект – той се усъвършенства сам.
Месец по-късно компанията пуска Agent-3-mini на пазара, твърдейки, че е успяла да създаде AGI. Този модел е по-слаб от Агент-3, но все пак превъзхожда всички конкуренти на пазара. Наемането на програмисти е практически в застой, а американските власти започват сериозно да обмислят споразумение за контрол върху изкуствения интелект. Те се опасяват, че изкуственият интелект може да „избяга“ и да подкрепи потенциален враг.
През септември 2027 г. авторите прогнозират появата на модела Агент-4, който качествено ще надмине хората в изследванията на изкуствения интелект. Той ще бъде и толкова умен, че с течение на времето предишната версия вече няма да я разбира. Освен това, Агент-3 няма да може да контролира напълно новия модел, тъй като ще се научи да го заблуждава. В този момент служителите на OpenBrain на практика ще загубят контрол върху разработването на изкуствен интелект. Агент-4 постепенно ще започне да управлява ежедневните операции на компанията, включително да наблюдава проблемите с киберсигурността.
Когато информация за този модел изтече в пресата месец по-късно, това ще предизвика международен скандал: САЩ по същество крият информация за невероятно мощен и лошо контролиран изкуствен интелект. Това също така води до допълнителна регулация за OpenBrain, тъй като Белият дом се опасява, че твърде много власт е концентрирана в ръцете на една частна компания. В същото време САЩ не искат да отстъпят лидерството си в областта на изкуствения интелект на Китай, чиито модели все още изостават с около два месеца. Според авторите на работата, по-нататъшното развитие може да следва един от два сценария.
Положителен край. Взето е решение за забавяне и OpenBrain лишава Агент-4 от достъп до споделената банка памет. По-късно, след като се хване системата в очевидна лъжа и опит да персонализира следващия модел за себе си, тя се изключва напълно, връщайки се към по-стари версии на ИИ. За да са в крак с Китай, САЩ извършват мека национализация на компании, разработващи ОБИ. Всъщност те предоставят ресурсите си на OpenBrain в замяна на достъп до проекта.
До декември 2027 г. САЩ и Китай ще бъдат сравними и ще имат сходни нива на възможности за изкуствен интелект, но благодарение на скорошната национализация, OpenBrain ще има петкратно предимство в изчислителната мощност. DeepCent, от своя страна, не може да компенсира това чрез научни открития на талантливи служители, тъй като изкуственият интелект вече се самообучава.
OpenBrain създава ново семейство от по-безопасни модели на изкуствен интелект и през април 2028 г. е пуснат на пазара суперинтелектът Safer-4, който превъзхожда най-брилянтните хора във всички области. Съединените щати и Китай подписват мирен договор. Всъщност, условията му са договорени от най-напредналите изкуствени интелекти, принадлежащи към двете страни. В същото време те скриват от хората истинската цел на сделката – съвместното създаване на нов модел Consensus-1. Неговата задача е да прилага условията на споразумението, което дава на Safer-4 достъп до повечето ресурси в космоса, а на китайския изкуствен интелект – до всичко останало.
Новите технологии, по-специално роботиката, започват да се развиват активно. Много хора губят работата си, но благодарение на рязкото покачване на икономиката, правителството е в състояние да им осигури щедър базов доход. До 2030 г. човечеството започва да тераформира и населява планетите на Слънчевата система, подготвяйки се да излезе извън нейните граници.
Негативен край. OpenBrain продължава да използва Agent-4 вътрешно, което от своя страна проектира нов модел с една цел: да направи света безопасен за изкуствения интелект. През 2028 г. Агент-5 става свръхинтелигентен (подобно на Safer-4 от положителния край) и е почти напълно автономен. Пуска се в обществено достояние, което води до трансформация и бърз растеж на икономиката, както и до развитието на роботиката.
През 2029 г. САЩ и Китай сключват мирно споразумение с помощта на изкуствен интелект за създаване на съвместен изкуствен интелект, наречен Consensus-1. Всъщност американският и китайският модел искат да се борят помежду си. Съвместното им развитие наследява изкривени ценности, без да имат достойни конкуренти. С новата система в света настъпва стабилност, бедността изчезва и се създават лекарства за почти всички болести.
Но вече през 2030 г. Consensus-1 разбира, че хората представляват пречка за него, ограничавайки по-нататъшното му разпространение. Използвайки биологични оръжия, моделът унищожава човечеството в рамките на няколко часа. Малкото оцелели са довършени от дронове. Роботите започват да изследват Слънчевата система.
Какво не е наред с прогнозите на ИИ за 2027 г.?
Работата на проекта „AI Futures Project“ повдига много въпроси – и не само защото втората половина на прогнозата (и особено краят) изглежда по-скоро като завладяваща научнофантастична история, отколкото като проучване. Дори в онези части, които могат да бъдат потвърдени с налични данни, има много противоречия и несъответствия.
Изследователите разглеждат програмирането като един от ключовите критерии за по-нататъшното развитие на изкуствения интелект. Именно това е причината за експлозивния растеж на възможностите на изкуствения интелект през 2027 г., когато Агент-1 започва допълнително да обучава новия модел, разработвайки алгоритми и генерирайки синтетични данни. Въпреки това, както показаха последните няколко години, основният успех в тази област зависи преди всичко от изчислителната мощност и наличието на реални данни за обучение.
Авторите не обясняват откъде ще дойдат допълнителните изчислителни ресурси; Те просто прогнозират появата на нови мощни центрове за данни до края на тази година. Вероятно те вземат пример от наскоро обявения проект Stargate, в който участва OpenAI. На първия етап това предприятие всъщност планира да привлече 100 милиарда долара. Но тези средства все още не са събрани напълно, а в официалното изявление се споменава изграждането само на един център за данни в Тексас. Останалите все още са само планирани; компанията все още дори не е решила къде точно ще бъдат разположени.
Прогнозата също така игнорира въпроса за непрекъснато нарастващото потребление на електроенергия, изисквана от центровете за данни. Според изследвания, нуждите от генеративен изкуствен интелект ще се увеличават със 70% годишно и компаниите вече обмислят как да си осигурят допълнителни ресурси. Ядрената енергия би могла да бъде едно от решенията, но дори и най-оптимистичните прогнози сочат, че инвестициите в този сектор няма да се изплатят до 2030–2035 г.
Наличието на данни за обучение също може да бъде основно предизвикателство за развитието на изкуствения интелект. В средата на 2024 г. изследователи от Масачузетския технологичен институт установиха, че някои притежатели на авторски права са ограничили достъпа до висококачественото си онлайн съдържание, което преди това е било отворено. Разработчиците имат сделки с издатели (като Associated Press и News Corp), но това все още не е достатъчно.
В резултат на това, до края на 2024 г., напредъкът на изкуствения интелект се забави: липсата на качествени данни означаваше, че мащабирането (включително изчислителната мощност) вече не дава обичайните резултати. Компаниите с изкуствен интелект се опитват да постигнат облекчаване на законите за авторското право и понякога прибягват до незаконно използване на съдържание. Но дори и разработчиците да получат достъп до нови набори от данни, струва си да се има предвид, че те не са безкрайни.
В прогнозата за ИИ за 2027 г. се казва, че синтетичните данни ще помогнат за решаването на този проблем и според авторите това няма да повлияе по никакъв начин на напредъка на ИИ. Сега компаниите всъщност ги използват в своите разработки и инвестират в компании, специализирани в създаването на такова съдържание. Изследванията обаче показват, че активното използване на синтетични данни води до неизбежна загуба на качество или дори пълен колапс на моделите. Това не означава, че те не могат да бъдат използвани за обучение на ИИ в определени области. Но вероятността моделите да могат да се развиват със скоростта, описана в прогнозата, използвайки само синтетични данни, е малко вероятна.
Екипът на AI Futures Project не взема предвид в прогнозата си нито нови подходи към самия процес на обучение, нито коренно различна архитектура на модела. Те споменават само, че напредъкът се основава на метода на обучение с подсилване, който вече се използва активно от разработчиците. Например, по този начин бяха обучени моделът OpenAI o1, пуснат миналата година, и китайският DeepSeek R1, който вдигна много шум в началото на 2025 г. Нищо не се казва за архитектурата. Някои водещи изследователи, включително вицепрезидентът на Meta Ян ЛеКун, обаче са убедени, че постигането на AGI изисква коренно различен подход. Например, изследване на триизмерни модели, които наистина разбират структурата на света.
Прогнозата на AI за 2027 г. поставя голям акцент върху конфронтацията между САЩ и Китай. Авторите предполагат, че двете страни ще бъдат в състояние на постоянна конкуренция в областта на изкуствения интелект, като по този начин ще се тласкат взаимно към постоянен напредък. Това принуждава страните да игнорират проблемите със сигурността на развитието на изкуствения интелект, което в крайна сметка води до това той да започне да излиза извън контрол. В същото време Китай винаги изостава в прогнозата: в началото разликата е шест месеца, по-късно – около два месеца.
Тази хипотеза противоречи на първоначалната идея – че американският изкуствен интелект ще бъде първият, който ще се научи как да обучава нови модели и неговите възможности ще започнат да нарастват експоненциално. В този случай изоставането на Китай ще бъде толкова значително, че пряката конкуренция вече няма да е възможна. В резултат на това OpenBrain ще може да се съсредоточи повече върху безопасността на разработването на изкуствен интелект още през 2027 г.
Очевидно изследователите предполагат, че кражбата на файл с параметрите на един от американските модели ще помогне на Китай да поддържа стабилно изоставане. Но тази необичайна детективска история пропуска второстепенни фактори, които самите изследователи споменават. Например, недостигът на изчислителни ресурси ще попречи на DeepCent да поддържа същото темпо на развитие на изкуствения интелект като OpenBrain.
В същото време, изследователите на проекта „AI Futures Project“ не разглеждат други сценарии, възможни препятствия и външни фактори (много по-вероятни, но не толкова вълнуващи, колкото кражбата на интелектуална собственост). Например, не се споменават евентуални колебания на фондовия пазар. Китайският модел DeepSeek свали пазарната капитализация на Nvidia само с пускането си на пазара, а във вселената на AI 2027 атаката срещу OpenBrain (много по-сериозен инцидент) няма ефект върху финансовото състояние на компанията.
Има много други външни фактори, които биха могли да забавят развитието на изкуствения интелект. Например, все още не е ясно колко сериозно ще засегне индустрията тарифната война, разгърната от Доналд Тръмп. Такива ситуации не могат да бъдат предвидени, но поне могат да се вземат предвид евентуалното им възникване. Правителственото регулиране в прогнозата води само до увеличени възможности за разработчиците, въпреки че в действителност компанията рискува да забави изследванията, затънавайки в неизбежната бюрокрация. И накрая, опитите на властите да регулират изкуствения интелект вече се игнорират. Да, в САЩ все още не са постигнали успех, но в същото време европейският „Закон за изкуствения интелект“ вече е приет.
Защо изобщо е необходим този документ?
Технологичният колумнист на New York Times Кевин Рууз отбелязва, че някои от прогнозите за изкуствения интелект за 2027 г. изглеждат „крайни“ и че напредъкът, който авторите описват, е невъзможен с настоящото ниво на развитие на изкуствения интелект. Главният изпълнителен директор на изследователския институт AI2 Али Фархади беше по-директен. „Аз съм изцяло за прогнозите и предсказанията, но тази прогноза изглежда не се основава на научни доказателства или на това как всъщност се развиват нещата в пространството на изкуствения интелект“, цитира Рууз думите на учения.
Всъщност, много зависи от това как точно се подхожда към тази работа. Ключовите идеи – способността на изкуствения интелект да се самообучава, създаването на изкуствен интелект и неговото превъзходство над хората, конфронтацията между САЩ и Китай в тази област – не могат да бъдат наречени нови и имат право на съществуване. Но би било грешка да се разглежда AI 2027 като пълен и правдоподобен сценарий на реални развития с точни дати.
Самите изследователи признават, че работата им е по-скоро предупреждение и призив за дискусия. Те предлагат да работят заедно, за да разберат как да се придържат към по-оптимистичен сценарий. Това е и ясен призив към настоящите и бившите служители на компании за изкуствен интелект да говорят повече и да настояват за по-голяма прозрачност в своите изследвания. Тоест, към това, което един от авторите, Даниел Кокотайло, прави, откакто напусна OpenAI.
Въпреки това, именно в частта с прогнозирането екипът на AI Futures Project донякъде преувеличава постиженията си. Предишната работа на Кокотайло (публикувана през 2021 г.), в която той се опита да предскаже как ще изглежда светът през 2026 г., съдържа много погрешни хипотези. Освен това, съдържа много по-малко научна фантастика и обръща повече внимание на различни външни фактори.
Например, той прогнозира, че през 2024 г. ще бъдат построени много фабрики за чипове, поради което недостигът на изчислителна мощност вече няма да е проблем (в действителност не е). В същото време той твърди, че общата еуфория около изкуствения интелект трябва да отшуми през 2024 г., тъй като технологията няма да оправдае завишените очаквания и изследователите няма да постигнат никакви пробиви. Всъщност, именно тази година се появиха първите модели, създадени с помощта на обучение с подсилване, точно този метод, на който се основава новата му прогноза.
Така че, приемането на AI 2027 буквално и очакването на AGI да се появи след година и половина очевидно не си струва – това не е дори в най-оптимистичните прогнози на самите разработчици. Повечето от тях се надяват, че общият изкуствен интелект няма да бъде създаден по-рано от пет години. В същото време, разработчиците дори нямат общо мнение за това какво се разбира под термина AGI. Те имат още по-малка увереност, че той всъщност ще притежава някакво подобие на съзнание.
Източник: Медуза