Изкуственият интелект (AI) в момента изглежда насочен повече към обикновените хора. Поне така е от гледна точка на новините и компаниите. Преобладаващата част от разработките и съобщенията за тях са концентрирани към възможностите за улесняване на крайния потребител.
Google Cloud Next е годишна конференция на интернет гиганта, която разглежда най-новите технологии в сферата на cloud индустрията. Фокусът се променя и се насочва към бизнеса, като това се оказва подходящото място, на което Google да покаже своите нови AI разработки, които да са полезни и за бизнеса.
“Тази седмица на Google Cloud Next споделяме как AI може да помогне на вашата мисия. Вълнуващо е да видим как нашите продукти помагат на компании от всякакви размери да постигнат повече с AI и да прехвърлят тези предимства и към клиентите си“, казва интернет гигантът.
Всичко започва с хардуера
За да може AI да се развихри с пълния си потенциал, технологията се нуждае от подобаващ и мощен хардуер. Най-важното е в случая изчислителната мощ. Тя трябва да е много голяма, но и същевременно да не консумира големи количества електричество, което в момента е проблем за много от чиповете. Стига се до там, че някои региони дори се притесняват да приемат центрове за данни, тъй като те имат огромни изисквания за енергия и това може да доведе до дисбаланс в местните мрежи и дори до недостиг на ток.
Затова компаниите полагат много усилия да оптимизират хардуера си. Google използва конференцията, за да представи седмото поколение на своя Tensor Processing Unit (TPU), който използва за центрове за данни. Компанията разчита на тях вече повече от десетилетие, като ги използва за най-натоварващите и сложни изчисления. Това включва AI задачи, както и различни заявки от клиентите на клауд услугите на компанията.
Новата разработка на Google се казва Ironwood и според гиганта е значителна стъпка напред в развитието на AI и прилежащата инфраструктура. Чипът е съобразен с настоящите и бъдещи нужди на AI, включително и промяната на самия начин на работа на изкуствения интелект. В момента той е реактивен, т.е. реагира на командите и действа в следствие на нещо, което се е случило. Постепенно браншът преминава към проактивен AI или “ерата на инференциите”. При нея AI агентите проактивно ще търсят и генерират данни, за да си сътрудничат и да предоставят не просто информация, а отговори и различни гледни точки и варианти.
Както може да се очаква, подобна промяна ще изисква още повече хардуерни ресурси. Ironwood ще е значително по-мощен, като може да се мащабира до 9216 чипа с течно охлаждане, които да бъдат свързани заедно в една система с мощност почти 10MW. Той ще е основна част от обновената архитектура Google Cloud AI Hypercomputer, която оптимизира софтуера и хардуера.
В подобна конфигурация само една свързана система ще достига изчислителна мощ от 42.5 екзафлопа. За контекст, най-мощният суперкомпютър в света, El Capitan, предлага 1.7 екзафлопа в една система. Само един чип ще достига пикова изчислителна мощ от 4616 TFLOPs. Google твърди, че това ще е “монументален” скок във възможностите на AI.
Ironwood е чип, който ще конкурира AI процесорите на Nvidia, AMD, Meta, Amazon и други компании. И докато Nvidia и AMD продават чиповете си на всеки, който има финансовата възможност да ги купи, Google, Amazon и Meta разработват хардуера само за своите центрове за данни. Който иска да ги използва, ще трябва да бъде клиент на техните услуги.
С мисъл за бизнеса и науката
Целият този хардуер е само основата за AI. ИТ гигантът заяви, че иска глобалната му ИТ инфраструктура да се движи “със скоростта на Google”, т.е. с почти нулево времезакъснение, за да могат услугите на компанията и на клиентите, да са бързи и стабилни. Мрежата се използва от всички услуги на Google, както и за обучение на AI платформата Gemini.
ИТ инфраструктурата на Google обхваща над 200 държави и територии и има над 3.22 трилиона километра оптични трасета. Компанията е решила да направи тази огромна инфраструктура достъпна за бизнес клиенти. Услугата е кръстена Cloud Wide Area Network (Cloud WAN) и компанията твърди, че ще намали разходите с до 40%, но пък ще увеличи производителността също с 40%.
Системите на Google вече се използват и от учените. За тях Google е направила нов клас инфраструктура, както и приложения с AI. Суперкомпютрите са важен инструмент в проучванията, като пестят много време и усилия и подпомагат постигането на големи и сложни открития. Интернет гигантът е оптимизирал хардуера и AI моделите, за да могат те да се справят по-бързо със специфичните научни задачи и изисквания.
Компанията е направила и нови модели, например AlphaFold 3, които могат да предвиждат структурата и взаимодействията между молекулите с високо ниво на точност. За разлика от бизнес услугите, научните модели са достъпни при различни условия и с изискване да не се използват за комерсиални цели, пишат от медияпул.бг.
И по нещо за всички
Google обнови и модела си Gemini 2.5 Flash. Той е “най-евтиният” AI модел на компанията, като новата му версия дава повече контрол на потребителите. Те ще могат да избират колко задълбочено Gemini да “мисли” и да балансират между производителност и бюджета си.
Gemin 2.5 Flash ще бъде внедрен в Google AI Studio, Vertex AI и основното приложение на Gemini. Това ще го направи достъпен както за крайните потребители, така и за учени, разработчици и бизнес клиенти, с което Google ще изпълни своята цел изкуственият интелект да достигне възможно най-много хора и фирми.