Spis treści
Tegoroczne targi CES 2026 przyniosły zapowiedź, na którą branża motoryzacyjna czekała z niecierpliwością. Jensen Huang, szef Nvidii, nie pokazał kolejnego nieco szybszego czipu czy ładniejszej wizualizacji kokpitu. Zamiast tego firma zaprezentowała fundamentalną zmianę w sposobie, w jaki komputery prowadzą samochody. Przechodzimy z ery maszyn, które jedynie „widzą” drogę, do systemów, które zaczynają „rozumować”. A pierwszym beneficjentem tej technologii będą kierowcy Mercedesów.
Koniec z drogową zgadywanką
Do tej pory systemy autonomiczne działały w dość prostym schemacie: wykryj przeszkodę, zaplanuj ścieżkę, wykonaj manewr. To wystarcza na autostradzie, ale w gęstym ruchu miejskim często zawodzi. Nvidia twierdzi, że rozwiązała ten problem za pomocą rodziny modeli Alpamayo. Producent określa to mianem „momentu ChatGPT dla fizycznego AI”.
Sercem nowego rozwiązania jest model Alpamayo 1, oparty na architekturze Vision-Language-Action (VLA). Najważniejszą nowością jest tu mechanizm „chain-of-thought”, czyli łańcuch myślowy. System nie tylko wypluwa gotową decyzję o skręcie czy hamowaniu. On procesuje obraz wideo i generuje logiczny wywód, tłumaczący dlaczego podjął takie, a nie inne działanie.
Dla inżynierów i regulatorów to gigantyczna zmiana. Dotychczasowe sieci neuronowe były „czarnymi skrzynkami” – wiedzieliśmy co zrobiły, ale rzadko wiedzieliśmy dlaczego. Teraz samochód będzie w stanie „przemyśleć” rzadkie, nietypowe scenariusze drogowe i wyjaśnić swoją logikę. To może być decydujący argument w rozmowach z urzędami dopuszczającymi te auta do ruchu.
Otwarty kod przeciwko zamkniętej twierdzy
Jensen Huang wykonał ruch, który można odczytywać jako bezpośredni atak na strategię Tesli. Elon Musk od lat buduje swój system Full Self-Driving (FSD) jako zamknięte, hermetyczne środowisko. Nvidia robi coś dokładnie odwrotnego. Firma udostępnia model Alpamayo 1 na platformie Hugging Face jako open source.
To strategia „Androida motoryzacji”. Nvidia daje producentom samochodów gotowe narzędzia: wagi modelu, środowisko symulacyjne AlpaSim oraz potężny zestaw danych treningowych obejmujący ponad 1700 godzin jazdy w trudnych warunkach. Przekaz jest jasny: jeśli nie potrafisz zbudować własnego autopilota (a większość tradycyjnych koncernów ma z tym ogromne problemy), weź gotowca od nas. Oczywiście pod warunkiem, że kupisz nasze czipy.
Dla mniejszych startupów i gigantów motoryzacyjnych to szansa na szybkie nadrobienie zaległości względem liderów rynku bez konieczności wydawania miliardów na podstawowe badania.
Mercedes CLA pierwszym poligonem doświadczalnym
Teoretyczne rozważania o AI szybko zmienią się w praktykę. Potwierdzono, że Mercedes-Benz CLA z rocznika 2025 będzie pierwszym seryjnym autem wykorzystującym pełny stos technologiczny Nvidii, wliczając w to modele Alpamayo. Amerykanie dostaną te auta już w pierwszym kwartale 2026 roku, a do Europy trafią one w drugim kwartale.
System nazwany MB.DRIVE ASSIST PRO jest oficjalnie klasyfikowany jako poziom 2+, co oznacza, że kierowca wciąż musi nadzorować jazdę. Jednak opis funkcjonalności brzmi znajomo dla użytkowników Tesli FSD. Auto ma samodzielnie nawigować przez miasto, od miejsca parkingowego do celu. Ciekawym detalem jest „kooperacyjny układ kierowniczy”, który pozwala kierowcy na drobne korekty toru jazdy bez wyłączania całego systemu asystującego.
Samochód został naszpikowany elektroniką. Zestaw sensorów obejmuje aż 30 urządzeń: 10 kamer, 5 radarów i 12 czujników ultradźwiękowych. To potężny arsenał, który ma zapewnić maszynie „oczy” dookoła głowy, podczas gdy model Alpamayo zapewni jej „mózg”.
Vera Rubin wchodzi do gry
Za kulisami tych drogowych zmagań stoi nowa architektura sprzętowa. Nvidia zaprezentowała platformę Vera Rubin, następcę układów Blackwell. To sześcioczipowy kombajn obliczeniowy, który wszedł już do pełnej produkcji. Choć większość tych układów trafi do centrów danych, to właśnie na procesorach graficznych „Rubin” i procesorach centralnych „Vera” będą trenowane kolejne generacje modeli, które ostatecznie trafią do komputerów pokładowych w samochodach.
Szansa na demokratyzację autonomii
Decyzja Nvidii o otwarciu dostępu do swoich modeli może wstrząsnąć rynkiem bardziej niż jakakolwiek premiera samochodu. Do tej pory producenci tacy jak Ford, GM czy Volkswagen musieli wybierać między kosztownym tworzeniem własnego oprogramowania (co często kończyło się porażką) a licencjonowaniem zamkniętych rozwiązań. Model open-source zmienia układ sił.
Z perspektywy konsumenta może to oznaczać koniec ery, w której zaawansowane systemy autonomiczne były domeną jednej czy dwóch marek. Jeśli system Mercedesa oparty na Alpamayo sprawdzi się w rzeczywistym ruchu miejskim w 2026 roku, presja na Teslę i innych graczy drastycznie wzrośnie. „Poziom 2+” może stać się rynkowym standardem, a nie luksusowym dodatkiem za kilkanaście tysięcy dolarów.
Pozostaje pytanie o zaufanie. Czy fakt, że sztuczna inteligencja potrafi „wytłumaczyć” swoją decyzję, sprawi, że chętniej zdejmiecie ręce z kierownicy? Czy może wolicie stare, dobre systemy oparte na sztywnych regułach, a nie na „myśleniu” maszyny? Dajcie znać w komentarzach, czy wsiedlibyście do tak sterowanego Mercedesa.












Dołącz do dyskusji