Ostatnie dwa lata przyniosły bezprecedensową falę inwestycji, która przetoczyła się przez cały krajobraz platform danych. Największe firmy z branży, w tym Databricks, Snowflake, Salesforce i inni główni gracze, wydali miliardy na zakup najnowocześniejszych technologii baz danych i zarządzania danymi — a ten szał wydatków nie jest przypadkowy. Jest to wyraźny, donośny sygnał fundamentalnej zmiany zachodzącej w ekosystemie danych przedsiębiorstw.
Oficjalnie minęliśmy erę modelu „jeden system wygrywa wszystko”. Od dziesięcioleci stos danych przedsiębiorstwa
ewoluował poprzez nakładanie warstw na wyspecjalizowane, odizolowane platformy: dedykowane narzędzia do przetwarzania transakcji, samodzielne rozwiązania do analizy danych, oddzielne systemy do zarządzania i zgodności oraz izolowane środowiska do eksperymentów ze sztuczną inteligencją. To fragmentaryczne podejście sprawdzało się skutecznie, gdy obciążenia przedsiębiorstw były przewidywalne, wyraźnie podzielone na segmenty i podzielone według odrębnych ram czasowych i celów funkcjonalnych. Sztuczna inteligencja agenta całkowicie wywróciła do góry nogami te wieloletnie ramy.
Autonomiczni agenci AI przełamują tradycyjne granice, które kiedyś oddzielały oddzielne obciążenia. W ramach jednego, płynnego przepływu pracy agenci mogą pobierać dane przedsiębiorstwa w czasie rzeczywistym, przeprowadzać głębokie analizy, podejmować autonomiczne decyzje i wykonywać ukierunkowane działania – a wszystko to bez ręcznego przekazywania i luk w systemie, które definiowały dotychczasowe operacje na danych.
Dzisiejsze przedsiębiorstwa wymagają ujednoliconej sztucznej inteligencji i struktury danych: suwerennej, zintegrowanej podstawy, w której analityka, podstawowe operacje na danych i inicjatywy związane ze sztuczną inteligencją są zarządzane spójnie z założenia. W tej nowej erze liderów rynku nie będzie już definiować jedna, najlepsza w swojej klasie, samodzielna funkcja. Zamiast tego zwycięstwo będzie należeć do tych organizacji, które w bezpieczny sposób połączą międzyfunkcyjne możliwości, rozbiją wewnętrzne silosy i będą działać jako jedna zunifikowana, suwerenna platforma danych i sztucznej inteligencji.
Konwergencji nie można budować na fragmentacji
Wiele platform zorientowanych na analitykę obecnie pędzi w dół, dodając lub nabywając operacyjną bazę danych
możliwości uzupełnienia obrazu agenta. Ale ta „zbieżność przez przywiązanie” może wprowadzić tarcie:
-
Zduplikowane dane w różnych systemach
-
Ping-pong danych pomiędzy magazynami i sklepami operacyjnymi
-
Nieprzewidywalne opóźnienie
-
Rozdrobnione zarządzanie
-
Uciekający token i koszty obliczeniowe
Ma to znaczenie, ponieważ środki wzmacniają nieefektywność. Każda dodatkowa sekunda opóźnień w trybie wieloetapowym
przepływy pracy. Każdy zduplikowany system zwiększa obciążenie związane z zarządzaniem i ryzyko operacyjne.
Konwergencja jest obecnie warunkiem wstępnym skali, którą można osiągnąć poprzez połączenie złożoności w jedną suwerenną całość
fundacja.
Moment renesansu: platformy muszą być na każdą porę roku
Platformy nowej generacji muszą być czymś więcej niż magazynem, czymś więcej niż silnikiem transakcyjnym i
więcej niż zestaw narzędzi AI. W epoce agentycznej infrastruktura musi obsługiwać trzy domeny jednocześnie:
Optymalizacja dla jednego obciążenia w izolacji już nie działa. Trwała konwergencja zaczyna się od etapu operacyjnego
warstwę zaufania i rozciąga się w górę na obciążenia analityczne i natywne AI. Nie da się tego przykręcić po fakcie.
To jest kierunek, w jakim Postgres ewoluuje: nie tylko transakcyjna baza danych, ale ujednolicona, zarządzana
podstawa realizacji operacyjnej, analityki o dużej współbieżności i rozumowania AI na podstawie bieżących danych.
Analityka przyspieszana przez procesor graficzny przybliża wykonywanie agentów do danych
Kolejną granicą jest wykonywanie analiz w pierwszej kolejności za pomocą procesora GPU. Jak niedawno zauważył Devin Pratt, dyrektor ds. badań w IDC:
„Pojawienie się agentycznej siły roboczej wymaga ponownego przemyślenia architektury danych. Aby zachować aktualność, przedsiębiorstwa
konieczne jest ograniczenie ping-ponga danych na fragmentarycznych platformach, który może zahamować postęp. EDB Postgres AI,
zasilany sztuczną inteligencją NVIDIA i przyspieszonym przetwarzaniem, jest pozycjonowany jako szybki i gotowy do zastosowania w przedsiębiorstwach
podstawę do obsługi tych systemów agentowych na dużą skalę, a jej celem jest pomoc organizacjom w przygotowaniu się
następna era autonomicznej pracy.”
Dzięki integracji z Apache Spark akcelerowanej przez NVIDIA cuDF silnik analityczny EDB może odciążyć
obciążenia analityczne do procesorów graficznych, umożliwiając:
-
Do 50–100 razy szybsza analiza wieloterabajtowych zbiorów danych
-
Izolacja obciążenia oparta na procesorze graficznym w celu ochrony wydajności zapytań operacyjnych
-
Obsługa architektur Lakehouse i możliwości zarządzania za pośrednictwem Apache Iceberg
Umożliwia to agentom wysyłanie zapytań i syntezę terabajtów danych w ciągu kilku sekund, a nie godzin
analityka konwersacyjna, podejmowanie decyzji w czasie rzeczywistym i orkiestracja wielu agentów bez duplikowania danych
przez magazyny i jeziora, bez konieczności opuszczania Postgres przez użytkownika.
Suwerenna infrastruktura wyłoni zwycięzców platformy AI
Wyścig w budowaniu i wdrażaniu agentowej sztucznej inteligencji nie koncentruje się już na analizie większych ilości danych. Główny nacisk uległ zmianie: obecnie chodzi o umożliwienie systemom sztucznej inteligencji działania na danych klasy korporacyjnej w sposób bezpieczny, niezawodny i z pełną przewidywalnością.
Rozważmy następującą analogię: nie montuje się samochodu z hamulcami dopiero po osiągnięciu przez niego maksymalnej prędkości. Ta sama zasada dotyczy infrastruktury agentowej sztucznej inteligencji — zarządzanie, suwerenność danych, ścisła izolacja obciążeń i pełna audytowalność nie mogą być pomijane. Te krytyczne filary muszą zostać wbudowane w rdzeń systemu już na etapie jego początkowego projektowania.
W epoce agentycznej konwergencja to nie tylko strategia, ale podstawowa zasada architektoniczna. Suwerenność danych przekłada się bezpośrednio na kontrolę operacyjną. Ostatecznie to siła i konstrukcja podstawowej infrastruktury danych i sztucznej inteligencji zadecyduje, które przedsiębiorstwa odniosą zwycięstwo w tym transformacyjnym krajobrazie.
Pekin Qianxing Jietong Technology Co., Ltd.
Sandy Yang/dyrektor ds. strategii globalnej
WhatsApp / WeChat: +86 13426366826
E-mail: yangyd@qianxingdata.com
Strona internetowa:
www.qianxingdata.com/www.storageserver.com
Koncentracja biznesowa:
Dystrybucja produktów ICT/Integracja systemów i usługi/Rozwiązania infrastrukturalne
Dzięki ponad 20-letniemu doświadczeniu w dystrybucji IT współpracujemy z wiodącymi światowymi markami, aby dostarczać niezawodne produkty i profesjonalne usługi.
„Wykorzystanie technologii do budowy inteligentnego świata”Twój zaufany dostawca usług produktów ICT!