Digital Foundry Retro: analiza pierwszej prezentacji PS3
Co było prawdziwe na pokazie w 2005 roku?
Stawka była ogromna. Rok 2005 miał zainicjować nową generację konsol, która w porównaniu z panującym ówcześnie PlayStation 2 - oraz jego konkurentami: platformami Xbox i Gamecube - oferowałaby kosmiczny skok pod względem mocy obliczeniowej i dostępnych możliwości.
Tuż przed targami E3 w 2005 roku, Microsoft ujawnił Xboksa 360, co dziwne - poprzez specjalny program na antenie MTV, ale gracze nie byli do końca zachwyceni prezentowanymi tam materiałami. Wszystkie oczy skierowane były na Sony oraz na ich konferencję, która miała przedstawić światu PlayStation 3. Kiedy w końcu się to stało, graczom z całego świata przedstawiono wachlarz najnowocześniejszych technologii, które wydawały się niewiarygodne.
Jedno wyrażenie stało się synonimem tej konferencji: „target render”. Do dziś te rażąco nierealistyczne prezentacje, które Sony wykorzystało do przedstawienia Killzone 2 i Motorstorm, są głównym powodem, dzięki któremu owa prezentacja została zapamiętana (choć rendering F1 jest także niezwykły na inne sposoby). Całkiem możliwe, że do pokazania było niewiele więcej - bo PlayStation 3 było wyraźne spóźnione.
Prawdą jest, że plany Sony dotyczące PS3 mogły być po prostu zbyt ambitne. Produkcja procesora Cell była nękana problemami, a częste i dziwne prośby architekta projektu - Kena Kutaragiego - nie pomagały w rozwiązywaniu narastających problemów (książka „The Race for a New Game Machine” to lektura obowiązkowa). Tymczasem, plany firmy Toshiba dotyczące dostarczenia unikalnego, nowatorskiego układu graficznego spełzły na niczym.
W godzinie desperacji, Sony zwróciło się do Nvidii, aby ta dostarczyła układ RSX - the Reality Synthesizer - ale najlepsze, co mogli w tej chwili otrzymać, to odświeżona wersja układu, która oryginalnie była przeznaczona na komputery PC, podobna do karty Nvidia 7900GT (i niestety dla Sony, było to trochę za wcześnie, aby wykorzystać oszałamiającą architekturę G80).
Przed targami E3 w 2005 roku, projekt wydawał się nabierać realnych kształtów, ale nadal musiało upłynąć trochę czasu, abyśmy mogli otrzymać finalną wersję. W bardzo technicznej prezentacji, Ken Kutaragi z dumą opowiadał o architekturze Cell - przedstawiając nawet matrycę procesora ukazującą układ chipu. Jen-Hsun Huang z Nvidii przybył na scenę z pełnym odczytem specyfikacji technicznej układu RSX. Widzieliśmy nawet samą maszynę - bliską ostatecznej wersji, ale posiadającą dwa porty HDMI, trzy porty LAN i mało otworów wentylacyjnych. Jednak z premierą zaplanowaną na wiosnę 2006 roku, wciąż był czas na dopracowanie szczegółów.
Wtedy do gry weszły dema prezentujące maszynę w akcji. W powyższym wideo, John Linneman, ja oraz nasz nowy specjalista do spraw PC, Alex Battaglia, komentujemy oryginalne briefingi prasowe i kolejno oceniamy wszystkie prezentacje - ponowne przeżycie tego wydarzenia jest fascynujące. „Target renderingi” oraz niektóre dema mogły okryć prezentację złą sławą, ale znajdziemy tu też kilka ekscytujących rzeczy. Na scenie pojawi się również Tim Sweeney ze studia Epic, który zaprezentował demo technologiczne silnika Unreal Engine 3, które faktycznie działało w czasie rzeczywistym na wczesnej wersji PlayStation 3.
Nie ma powodów, aby wątpić w prawdziwość demonstracji z gumowymi kaczuszkami lub prezentację wokselizacji terenów, która pokazuje - z dobrym skutkiem - moc przetwarzania układu Cell. Pod względem grafiki, Sony na potrzeby gry Spider-Man 2 zeskanowało aktora Alfreda Molinę, przy okazji demonstrując imponujące oświetlenie oraz animacje działające w czasie rzeczywistym. Czy działało to na PlayStation 3? Oczywiście nie da się tego całkowicie potwierdzić, ale z pewnością prezentacja wyglądała na autentyczną i łatwo było można ją prześcignąć podczas produkcji oprogramowania dla nadchodzącej generacji konsol. Ale w tym czasie? Wyglądało to niesamowicie.
Znajdziemy tu więcej interesujących elementów. Podczas wystąpienia na temat technologii, która zdefiniuje całą generację, na scenie pojawił się geniusz działu R&D firmy Sony, dr Richard Marks, który zaprezentował kontrolery 3D śledzone przez EyeToy. Reprezentowały one szklanki na ekranie, zdolne do zbierania wody oraz manipulowania nią. Sony, wraz z swoimi nieoptymalnymi kontrolerami SixAxis, mogłoby zostać oskarżone o naśladowanie kontrolerów ruchu Nintendo, ale to demo, pokazujące eksperymentowanie Sony z technologią kontrolerów w stylu Kinecta, miało miejsce kilka miesięcy przed pokazaniem Wiimote na TGS 2005 i cztery lata przed prezentacją projektu Natal na E3 w 2009 roku.
Kudo Tsunoda - wtedy pracujący dla Electronic Arts - przedstawił coś, co wyglądało jak demo Fight Night, które działało w czasie rzeczywistym. Tak, liczba klatek na sekundę była niska, a zakończenie pokazu, mocno przypominające to z prezentacji wersji na Xbox 360, nie pomagało w dobrym odbiorze, ale prezentacja Tsunody nadal wyglądała autentycznie. Odsuwając na bok kiepską wydajność, to wspaniałe dzieło. Dla publiczności, przyzwyczajonej do grafiki z generacji PS2, było to niczym objawienie. Finalna wersja sprzętu dostarczyła ulepszoną wersję tej prezentacji - ale oczywiście wersja na Xbox 360 była bardziej wyrafinowana. To stan rzeczy w rozwoju między platformami, który zdefiniuje wiele następnych lat.
Na opisywanej konferencji była obecna prawdziwie pionierska, genialna idea - potrzeba pchnięcia technologii konsol dalej niż kiedykolwiek wcześniej, która szła w parze z wielkimi nadziejami dotyczących niezwykłej technologii przetwarzania procesora Cell. Ambicje te posunęły się wyraźnie za daleko - koncepcja układu RSX zasilającego dwa wyjścia HD i idea PS3 z trzema portami LAN były niejako szalone.
Wszystko to wiązało się z potrzebą Sony do wprowadzania technologii gier w nowe obszary, czy użycia procesora Cell jako sieciowego super-komputera (to udało się niestety tylko fikcyjnym świecie serialu sieci CBS „Impersonalni”). Na koniec warto też dodać, choć to wydawać się mogło bezużyteczne, że PS3 - przynajmniej wtedy - było w stanie uruchomić system Linux.
W swojej wizji definiowania przyszłości technologii gier, Sony posunęło się jednak na E3 w 2005 roku za daleko. Phil Harrison przedstawił demonstrację fizyki zawierającą rendering eksplozji, które nie przypominały niczego wyprodukowanego przez poprzednią generację. Sama demonstracja fizyki nie była niczym wyszukanym, ale wyraźnie odczuwalne było poczucie „upiększenia”.
Demo Gateway, umiejscowione w pobliżu londyńskiego Piccadilly Circus, wyglądało nieziemsko i zdawało się być renderowane na „czymś” w czasie rzeczywistym, a ekstremalnie dobra jakość grafiki pod pewnymi względami dotrzymuje tempa dzisiejszej technologii - i trudno uwierzyć, że to demo działało na PlayStation 3. Następnie przedstawiona była technologiczna wersja demonstracyjna Final Fantasy 7, działająca w częstotliwości 60Hz oraz renderowana w czasie rzeczywistym, ale nie jest jasne, na jakim sprzęcie działała owa prezentacja.
Pojawiły się zarówno wątpliwe, jak i szalone momenty - takie jak dziwne połączenie Spider-Mana 2 i Gran Turismo - ale wydarzyło się to już pod koniec pokazu, kiedy konferencja całkowicie wymknęła się spod kontroli. Występ kończyła seria zwiastunów przedstawiających rozgrywkę z nadchodzących gier, a tam właśnie pojawiły się słynne „target rendery” Killzone 2 i Motorstorma. W przypadku twórców ze studia Evolution można powiedzieć o wyraźnym niezadowoleniu, co potwierdza datowany na 2008 rok wywiad z Nigelem Kershaw oraz Paulem Hollywood. W pewnym sensie, to wideo postawiło przed zespołem niemożliwy do osiągnięcia cel - taki, któremu nie może sprostać nawet dzisiejszy sprzęt.
Angie Smets z Guerrilla Games tłumaczyła natomiast, że ich „target render” to „wewnętrzne wideo przedstawiające wizję gry”, które nigdy nie miało być upublicznione, a zestawy deweloperskie PS3 dopiero co dotarły do amsterdamskiego studia. Jasnym jest, że wydawca nie był zadowolony z takiego obrotu spraw, i nie dziwi fakt, że wiele późniejszych tytułów studia Guerrilla było prezentowanych poprzez demonstracje w czasie rzeczywistym - włącznie z prezentacją Killzone: Shadow Fall z konferencji przedstawiającej PS4 w lutym 2013 roku.
Być może to właśnie to najbardziej rzucało się w oczy podczas prezentacji przedstawiającej PS3 - fakt, że pracownicy Sony musieli zdawać sobie sprawę, do czego jest zdolny ich sprzęt, a „target rendery” nie zgrywały się z rzeczywistą specyfikacją konsoli, a które jednak wciąż zostały pokazane milionom. Nie jest jasne, jakie procesy myślowe doprowadziły do tej konferencji, ukazującej zarówno fakty, jak i fantazję.
Czy Sony martwiło się, jak niewiele ma do zaoferowania? Czy przejęło się wcześniejszą premierą konkurencyjnego Xboksa 360? Różnicę w stosunku do konferencji przedstawiającej PS4 można porównać do dnia i nocy - wyraźnie widać, że zostały wyciągnięte odpowiednie wnioski i nie ma wątpliwości, że ostatnia konsola Sony spełniła oczekiwania.
Obecnie wiemy, jak wyglądały kolejne lata po tej bardzo kontrowersyjnej prezentacji. Problemy z produkcją spowodowały, że premiera PS3 została przesunięta z wiosny 2006 roku na zimę, podczas gdy europejska wersja pojawiła się w marcu 2007 roku. Kompromisy w konstrukcji PS3 - starszy procesor graficzny i dzielona pamięć - nie wspominając o jej egzotycznym CPU, cofnęły Sony o jeden krok w świecie, który w coraz większym stopniu opierał się na tworzeniu gier dla wielu platform.
Ale chociaż „target rendery” mogły być żałośnie mylące, konsola wciąż dostarczyła jedne z najlepszych gier generacji. Uncharted, God of War, Killzone, Motorstorm - kiedy pojawiły się te gry, zobaczyliśmy osiągnięcia technologiczne, które wyprzedzały wszystkie obecnie dostępne tytuły konsolowe. Z perspektywy czasu, możliwe, że to właśnie gry tej generacji ocaliły Sony, w przeciwieństwie do ambitnej, ale wadliwej specyfikacji sprzętu.