Jeśli rok 2025 był rokiem, w którym AI przeszła próbę nastroju, to 2026 będzie rokiem, w którym technologia stanie się praktyczna. Skupienie już przesuwa się z budowania coraz większych modeli językowych na trudniejszą pracę nad uczynieniem AI użyteczną. W praktyce oznacza to wdrażanie mniejszych modeli tam, gdzie pasują, osadzanie inteligencji w urządzeniach fizycznych oraz projektowanie systemów, które płynnie integrują się z ludzkimi procesami pracy.
Eksperci, z którymi rozmawiał TechCrunch, widzą rok 2026 jako rok przejściowy, w którym następuje ewolucja od skalowania „na siłę” do badań nad nowymi architekturami, od efektownych demonstracji do ukierunkowanych wdrożeń oraz od agentów obiecujących autonomię do takich, które faktycznie wspomagają sposób pracy ludzi.
Impreza jeszcze się nie skończyła, ale branża zaczyna trzeźwieć.
Prawa skalowania to już za mało
Źródło zdjęcia:Amazon W 2012 roku Alex Krizhevsky, Ilya Sutskever i Geoffrey Hinton w artykule o ImageNet pokazali, jak systemy AI mogą „uczyć się” rozpoznawania obiektów na zdjęciach poprzez analizę milionów przykładów. Podejście to było kosztowne obliczeniowo, ale możliwe dzięki GPU. Efekt? Dekada intensywnych badań nad AI, w trakcie których naukowcy pracowali nad nowymi architekturami do różnych zadań.
Kulminacją był rok 2020, gdy OpenAI wypuściło GPT-3, który pokazał, że wystarczy powiększyć model 100-krotnie, by odblokować zdolności takie jak programowanie czy rozumowanie bez konieczności jawnego uczenia. To oznaczało przejście do tego, co Kian Katanforoosh, CEO i założyciel platformy agentów AI Workera, nazywa „erą skalowania”: okres zdefiniowany przez przekonanie, że więcej mocy obliczeniowej, więcej danych i większe modele transformerów nieuchronnie przyniosą kolejne przełomy w AI.
Obecnie wielu badaczy uważa, że branża AI zaczyna wyczerpywać możliwości praw skalowania i ponownie przejdzie w etap badań naukowych.
Yann LeCun, były główny naukowiec AI w Meta, od dawna sprzeciwia się nadmiernemu poleganiu na skalowaniu i podkreśla potrzebę opracowania lepszych architektur. Sutskever w niedawnym wywiadzie przyznał, że obecne modele osiągają plateau, a wyniki pre-treningu się wypłaszczają, co wskazuje na konieczność nowych pomysłów.
Dołącz do listy oczekujących na Disrupt 2026
Dodaj siebie do listy oczekujących na Disrupt 2026, aby być pierwszym w kolejce, gdy pojawią się bilety Early Bird. W poprzednich edycjach Disrupt wystąpili m.in. Google Cloud, Netflix, Microsoft, Box, Phia, a16z, ElevenLabs, Wayve, Hugging Face, Elad Gil i Vinod Khosla — wśród ponad 250 liderów branży prowadzących ponad 200 sesji zaprojektowanych, by pobudzić Twój rozwój i ostrzyć Twoją przewagę. Dodatkowo, poznaj setki startupów wprowadzających innowacje w każdej branży.
Dołącz do listy oczekujących na Disrupt 2026
Dodaj siebie do listy oczekujących na Disrupt 2026, aby być pierwszym w kolejce, gdy pojawią się bilety Early Bird. W poprzednich edycjach Disrupt wystąpili m.in. Google Cloud, Netflix, Microsoft, Box, Phia, a16z, ElevenLabs, Wayve, Hugging Face, Elad Gil i Vinod Khosla — wśród ponad 250 liderów branży prowadzących ponad 200 sesji zaprojektowanych, by pobudzić Twój rozwój i ostrzyć Twoją przewagę. Dodatkowo, poznaj setki startupów wprowadzających innowacje w każdej branży.
„Myślę, że najprawdopodobniej w ciągu najbliższych pięciu lat znajdziemy lepszą architekturę, która będzie znaczącym ulepszeniem transformerów”, powiedział Katanforoosh. „A jeśli tego nie zrobimy, nie możemy oczekiwać znaczącej poprawy modeli.”
Czasem mniej znaczy więcej
Duże modele językowe świetnie generalizują wiedzę, ale wielu ekspertów twierdzi, że kolejną falę wdrożeń AI w przedsiębiorstwach napędzą mniejsze, bardziej elastyczne modele językowe, które można dostroić do rozwiązań branżowych.
„Dostrojone SLM będą dużym trendem i staną się podstawą wykorzystywaną przez dojrzałe przedsiębiorstwa AI w 2026 roku, ponieważ przewagi kosztowe i wydajnościowe przełożą się na większe zastosowanie niż gotowe LLM” – powiedział Andy Markus, Chief Data Officer AT&T, w rozmowie z TechCrunch. „Już teraz widzimy, że firmy coraz częściej polegają na SLM, ponieważ jeśli są odpowiednio dostrojone, dorównują większym, ogólnym modelom pod względem dokładności w zastosowaniach biznesowych, a są znakomite pod względem kosztów i szybkości.”
Ten argument pojawił się już wcześniej ze strony francuskiego startupu Mistral zajmującego się otwartymi modelami AI: twierdzi on, że jego małe modele po dostrojeniu faktycznie osiągają lepsze wyniki niż większe modele w kilku benchmarkach.
„Wydajność, opłacalność i zdolność adaptacji SLM sprawia, że są idealne do precyzyjnych zastosowań, gdzie liczy się dokładność” – powiedział Jon Knisley, strateg AI w ABBYY, firmie AI z Austin.
Podczas gdy Markus uważa, że SLM będą kluczowe w erze agentów, Knisley twierdzi, że ich natura sprawia, iż lepiej nadają się do wdrożeń na urządzeniach lokalnych, „a trend ten przyspiesza rozwój edge computingu.”
Uczenie się przez doświadczenie
Źródło zdjęcia:World Labs/TechCrunch Ludzie nie uczą się tylko przez język; uczymy się, doświadczając, jak działa świat. Jednak LLM nie rozumieją rzeczywistości; po prostu przewidują kolejne słowo lub ideę. Dlatego wielu badaczy uważa, że kolejny wielki krok naprzód nastąpi dzięki modelom świata: systemom AI, które uczą się, jak rzeczy poruszają się i wchodzą w interakcje w przestrzeniach 3D, by móc przewidywać i podejmować działania.
Coraz więcej wskazuje na to, że 2026 będzie przełomowym rokiem dla modeli świata. LeCun odszedł z Meta, by założyć własne laboratorium modeli świata i podobno stara się o wycenę 5 miliardów dolarów. DeepMind z Google pracuje nad Genie i w sierpniu wypuścił najnowszy model, który buduje interaktywne, uniwersalne modele świata w czasie rzeczywistym. Obok demonstracji startupów takich jak Decart i Odyssey, World Labs Fei-Fei Li wprowadziło na rynek swój pierwszy komercyjny model świata – Marble. Nowi gracze, tacy jak General Intuition, w październiku pozyskali rundę seedową 134 miliony dolarów na naukę agentów rozumowania przestrzennego na podstawie nagrań z gier, a startup generujący wideo Runway w grudniu wypuścił swój pierwszy model świata, GWM-1.
Chociaż badacze widzą długoterminowy potencjał w robotyce i autonomii, to w krótkim okresie największy wpływ będzie widoczny najpierw w grach komputerowych. PitchBook przewiduje, że rynek modeli świata w grach wzrośnie z 1,2 miliarda dolarów w latach 2022-2025 do 276 miliardów dolarów do 2030 roku, napędzany zdolnością tej technologii do generowania interaktywnych światów i bardziej realistycznych postaci niezależnych.
Pim de Witte, założyciel General Intuition, powiedział TechCrunch, że wirtualne środowiska mogą nie tylko zrewolucjonizować gry, ale także stać się kluczowym poligonem doświadczalnym dla kolejnej generacji modeli bazowych.
Agentowy naród
Agenci nie sprostali oczekiwaniom w 2025 roku, ale głównym powodem jest trudność połączenia ich z systemami, w których faktycznie wykonywana jest praca. Bez dostępu do narzędzi i kontekstu, większość agentów utknęła w pilotażowych procesach.
Model Context Protocol (MCP) od Anthropic, „USB-C dla AI”, który pozwala agentom AI komunikować się z zewnętrznymi narzędziami takimi jak bazy danych, wyszukiwarki czy API, okazał się brakującym ogniwem i szybko staje się standardem. OpenAI i Microsoft publicznie przyjęły MCP, a Anthropic niedawno przekazał go nowej Agentic AI Foundation Fundacji Linux, która ma standaryzować otwarte narzędzia agentowe. Google również uruchamia własne zarządzane serwery MCP, by połączyć agentów AI ze swoimi produktami i usługami.
Dzięki MCP, które zmniejsza tarcia przy łączeniu agentów z realnymi systemami, rok 2026 prawdopodobnie będzie rokiem, w którym agentowe procesy pracy w końcu przejdą z demonstracji do codziennej praktyki.
Rajeev Dham, partner Sapphire Ventures, twierdzi, że te osiągnięcia sprawią, iż rozwiązania oparte na agentach przejmą „rolę systemów rejestrujących” w różnych branżach.
„W miarę jak agenci głosowi będą obsługiwać coraz więcej zadań end-to-end, takich jak przyjmowanie zgłoszeń i komunikacja z klientem, zaczną również tworzyć podstawowe systemy” – powiedział Dham. „Zobaczymy to w różnych sektorach, takich jak usługi domowe, proptech i opieka zdrowotna, a także w funkcjach horyzontalnych, takich jak sprzedaż, IT i wsparcie.”
Wspomaganie, nie automatyzacja
Źródło zdjęcia:Zdjęcie: Igor Omilaev na Unsplash Choć bardziej agentowe procesy pracy mogą wzbudzać obawy przed zwolnieniami, Katanforoosh z Workera nie jest pewien, czy taki będzie przekaz: „2026 będzie rokiem ludzi” – powiedział.
W 2024 roku każda firma AI przewidywała, że zautomatyzuje miejsca pracy, eliminując potrzebę udziału ludzi. Jednak technologia nie jest jeszcze na tym etapie, a w niestabilnej gospodarce to nie jest popularna retoryka. Katanforoosh twierdzi, że w przyszłym roku uświadomimy sobie, iż „AI nie działała tak autonomicznie, jak sądziliśmy” i rozmowa skupi się bardziej na tym, jak AI wspiera ludzkie procesy pracy, zamiast je zastępować.
„Myślę, że wiele firm zacznie zatrudniać”, dodał, zauważając, że spodziewa się nowych ról w zakresie zarządzania AI, transparentności, bezpieczeństwa i zarządzania danymi. „Jestem dość optymistyczny co do tego, że bezrobocie średnio nie przekroczy 4% w przyszłym roku.”
„Ludzie chcą być ponad API, nie pod nim, i myślę, że 2026 to ważny rok w tym zakresie” – dodał de Witte.
Wejście w świat fizyczny
Źródło zdjęcia:David Paul Morris/Bloomberg / Getty Images Eksperci twierdzą, że postępy w technologiach takich jak małe modele, modele świata i edge computing umożliwią więcej fizycznych zastosowań uczenia maszynowego.
„Fizyczna AI trafi do mainstreamu w 2026 roku, gdy na rynek zaczną wchodzić nowe kategorie urządzeń wspieranych przez AI, w tym robotyka, pojazdy autonomiczne, drony i urządzenia ubieralne” – powiedział Vikram Taneja, szef AT&T Ventures, w rozmowie z TechCrunch.
Podczas gdy pojazdy autonomiczne i robotyka to oczywiste zastosowania fizycznej AI, które z pewnością będą się rozwijać w 2026 roku, wymagania treningowe i wdrożeniowe są wciąż kosztowne. Urządzenia ubieralne natomiast stanowią tańszą alternatywę z akceptacją konsumentów. Inteligentne okulary, takie jak Ray-Ban Meta, zaczynają oferować asystentów mogących odpowiadać na pytania dotyczące tego, na co patrzysz, a nowe formy, jak pierścienie zdrowotne z AI i smartwatche, normalizują nieustanną, na-ciele inferencję.
„Dostawcy łączności będą pracować nad optymalizacją infrastruktury sieciowej, by wesprzeć nową falę urządzeń, a ci, którzy będą elastyczni w oferowaniu połączeń, znajdą się na najlepszej pozycji” – powiedział Taneja.
