Świat technologii wstrzymał oddech, gdy Google pod koniec listopada 2025 roku zaprezentowało swój najnowszy model generowania obrazów – Nano Banana Pro, oparty na architekturze Gemini 3 Pro.
Obietnice były ogromne: rozdzielczość 4K, perfekcyjne renderowanie napisów i niespotykany dotąd fotorealizm. Jednak najnowszy eksperymenty przeprowadzone przez naukowców rzuca cień na entuzjazm branży bezpieczeństwa cyfrowego. Wyniki są jednoznaczne i niepokojące: czołowe narzędzia do wykrywania treści generowanych przez sztuczną inteligencję kompletnie nie radzą sobie z materiałami stworzonymi przez „Banana”.
Ślepe narzędzia w starciu z Nano Banana Pro
Eksperyment polegał na wygenerowaniu serii stu fotorealistycznych zdjęć przedstawiających codzienne sytuacje, od zatłoczonych ulic Warszawy po szczegółowe portrety w studio. Wykorzystano do tego tryb „Thinking” modelu Nano Banana Pro, który analizuje logikę sceny przed jej narysowaniem. Następnie obrazy te przepuszczono przez pięć najpopularniejszych na rynku detektorów AI, w tym płatne rozwiązania enterprise. Rezultat okazał się szokujący.
Aż 85% grafik zostało oznaczonych jako „wykonane przez człowieka”. Narzędzia, które jeszcze miesiąc temu skutecznie flagowały grafiki z Midjourney v6 czy FLUX.1, w przypadku produktu Google okazały się bezużyteczne. Algorytmy detekcji szukają zazwyczaj artefaktów takich jak nienaturalny szum, błędy w geometrii czy dziwne tekstury skóry. Nano Banana Pro, dzięki nowej metodzie renderowania, eliminuje te ślady niemal całkowicie, tworząc „cyfrowy szum” łudząco przypominający ten z matryc fizycznych aparatów fotograficznych.
Koniec ery „spójrz na palce”
Przez lata najprostszą metodą weryfikacji było liczenie palców u dłoni lub sprawdzanie czy napisy w tle mają sens. Nano Banana Pro zamyka ten rozdział definitywnie. Model ten, dostępny w Polsce w ramach subskrypcji Gemini Advanced (kosztującej obecnie około 98 zł miesięcznie), bezbłędnie generuje tekst. W testowym zestawie znalazły się zdjęcia witryn sklepowych z poprawnymi polskimi cenami i nazwami produktów, co zmyliło nie tylko algorytmy, ale i ludzkich weryfikatorów.
Zdolność modelu do zachowania spójności postaci na wielu ujęciach sprawia, że stworzenie fałszywego profilu w mediach społecznościowych staje się kwestią minut, a nie godzin pracy w Photoshopie. Nawet system SynthID, czyli niewidzialny znak wodny Google, bywa zawodny, jeśli obraz zostanie poddany lekkiej kompresji lub edycji kolorystycznej, co wykazały testy niezależnych badaczy.
Polskie firmy i media w obliczu dezinformacji
Dla polskiego rynku, który wkracza w gorący okres przedwyborczy, wnioski z tego eksperymentu są alarmujące. Agencje marketingowe w Warszawie już teraz raportują, że klienci coraz częściej rezygnują z tradycyjnych sesji zdjęciowych na rzecz generacji AI, co jest tańsze i szybsze. Jednak to, co cieszy księgowych, martwi ekspertów od cyberbezpieczeństwa.
Brak skutecznych narzędzi detekcji oznacza, że weryfikacja newsów opartych na zdjęciach staje się praktycznie niemożliwa dla przeciętnego internauty. Jeśli dedykowane oprogramowanie myli się w 8 na 10 przypadków, musimy wrócić do tradycyjnych metod dziennikarskiego śledztwa i weryfikacji źródeł, zamiast polegać na technologii. Nano Banana Pro to imponujące narzędzie kreatywne, ale ten eksperyment dowodzi, że wyprzedziło ono systemy bezpieczeństwa o co najmniej dwie generacje.

