FELIETONIq
Dlaczego dzisiaj mamy zastój rozwoju IT, gier video,
urządzeń elektroniki?
Jak może wyglądać przyszłość, jak wyjść z impasu?
====================================================
Zapewne wielu Czytelników nie zgodzi się z powyższymi pytaniami,
ponieważ dookoła widzimy, że coraz więcej ludzi kupuje telewizory LCD,
technologie stają się coraz tańsze i nowocześniejsze (np. OLED).
Producenci zaś chwalą się coraz to nowymi wynikami sprzedażowymi -
wszystkim się więc wydaje, że wszystko jest ok.
Jednak część czytelników to ludzie młodzi i bardzo młodzi. Ja,
mając obecnie prawie 31 lat pamiętam czasy początku rozwoju rynku IT -
czyli ekspansję światową od około 1995 roku (chociaż oczywiście
ekspansja ta zaczęła się wcześniej).
Wtedy też nowinki w układach graficznych, IT - w ogóle w niemal
każdej dziedzinie były porządne, wynikające z ekspansji, nie z
materializmu.
W ogóle świat poszedł na dno, jeśli chodzi o jakość - jakość muzyki,
życia, produktów - niemal wszystko w ciągu ostatnich 15-17 lat obniżyła
się drastycznie.
Oto, co mieliśmy kiedyś - a co mamy dzisiaj
(porównanie):
Sprzęt komputerowy - rozwijał się bardzo dynamicznie -
wszystko wynikało z faktycznej potrzeby przedsiębiorstw, rynku, ludzi.
Wprowadzano nowe standardy z głową w sposób dynamiczny, ale nie
idiotyczny (jak to ma miejsce dzisiaj). Kiedy złącze PCI zastępowało ISA
wszyscy wiedzieli i widzieli, że to było dobre, słuszne. Kiedy PS/2
zastępowało DIM, kiedy USB zastępowało PS/2. Dzisiaj wszystko upychane
jest na siłę dla zarobienia pieniędzy - kiedyś ekspansja była bardziej
wypoziomowana - firmy konkurowały ze sobą na zasadzie zdrowej
konkurencji (owszem, zdarzały się walki, problemy - ale to było zdrowe).
Jedynym słusznym standardem, który pozostał niemal niezmieniony jest
"stary, poczciwy ATX" (jest to standard dopasowania wielkości płyt
głównych do obudów komputerowych, tj. standard, który od ponad 10 lat
prawie w ogóle się nie zmienił). Jak wszystko ponad 15 lat temu,
niemal każdy sprzęt był robiony "na jakość" - dzisiaj niestety jest
odwrotnie - trzeba się mocno napocić, aby znaleźć dobrej jakości
podzespoły komputera - chyba jedynymi, które utrzymują nadal wysoką
jakość pozostają procesory komputerowe (Intel, AMD) oraz...zasilacze
komputerowe (Tagan, Chieftec, czy z wyższej półki Antec, Huntkey, itp).
Dzisiaj za bardzo dobrej jakości uważane są płyty główne (motherboard),
które kiedyś uważane były za "dopuszczalnej jakości". Kiedy rynek był
regulowany przez zdrową konkurencję - firmy zaczęły prowadzić niezdrową,
nierynkową walkę, przekupując, wykupując oraz organizując się w
quasi-organizacje jedna przeciw drugiej. Walka tylko o pieniądz a nie o
jakość zastąpiła zdrowy rozsądek. Owszem, dzisiaj osiągamy rozwój w tych
dziedzinach, ale jest to rozwój maskowany, tj. NIE wynikający z tego, że
firmy ciągle odczuwały oddech konkurencji (może jedynie pomiędzy
Intel-AMD i Ati-Nvidia - ale i te wydają się być pozorowane i nastawione
na kontrolowany rozwój).
Oprogramowanie - software. Kolejny temat-rzeka. Kiedy zaczął
się boom na oprogramowanie - tysiące firm z całego świata prześcigało
się w tworzeniu dobrego oprogramowania. Przykładem niech będzie
chociażby Nero firmy Ahead. Na początku był to tylko doskonały program
do nagrywania płyt CD i DVD. Potem ktoś wpadł na pomysł, żeby powłączać
w skład tego oprogramowania co tylko się da - multimedia, kodeki,
projektowanie okładek - i tak z dobrego programu do nagrywania Nero
stało się przerośniętym klocem niczego. Kiedy dawniej program mógł
zajmować 20-30 Mb - a jeszcze wcześniej około 10 Mb - teraz programy po
zainstalowaniu zajmują ponad 200-400 Mb - ich zasoby są w większości
niewykorzystane. Żeby jeszcze większość tych firm, które powłączała do
swoich dobrych produktów inne dobre produkty (np. wykupiła dobrej
jakości produkty innych firm i w ten sposób połączyła swoje możliwości)
- to najczęściej firmy tworzyły swoje oprogramowanie - najczęściej było
to tworzone na kolanie, wychodziły z tego gnioty oprogramowania -
oprogramowanie było niestabilne, bo i kto miał je sprawdzić, jeśli co
2-3 miesiące lub najwyżej pół roku wychodziła kolejna wersja, jeszcze
gorsza, jeszcze bardziej "napakowana" innymi gniotami. I tak z firm
produkujący dobrej klasy opony samochodowe w ciągu 2-3 lat firmy stawały
się byle jakimi dostawcami dziurawych kombinezonów kosmicznych.
Ten przykład przechodził Microsoft - który najpierw stworzył
genialnego na ówczesne czasy Windows 95 (owszem, zawieszał się, bywał
niestabilny, ale nie sposób nie potwierdzić, że był genialny na swoje
czasy), potem równie dobrego Win 98 - a potem ponad rok później firma na
siłę zaczęła wypuszczać gniota Windows Millenium - na który narzekali
wszyscy oprócz...mnie. Całkiem poważnie, wszyscy mieli problemy z tym
systemem, a u mnie działał on bardzo dobrze. Firma jednak wyciągnęła
lekcję i wydała na świat niesamowicie dobrego Win XP - potem jednak
znowu niemoralne zależności i umowy pomiędzy producentami sprzętu oraz
wielkimi gigantami IT sprawiły, że Microsoft aby zapewnić światu kolejny
skok technologiczny - wydał Windows Vista - za który został słusznie
skrytykowany. Celowo wymuszono w Viście takie rozwiązania, aby system
wymagał co najmniej dwukrotnie lepszego komputera, lepszej karty grafiki
- czyli otrzymaliśmy to, co było już wielokrotnie przećwiczone -
niepisane umowy pomiędzy Microsoftem a członkami branży IT są tak
skonstruowane, że Microsoft zawsze kolejny system konstruuje w taki
sposób, że wymusza on na użytkownikach wymianę sprzętu na nowszej
generacji. Ktoś powie: no i całkiem dobrze, bo wtedy świat IT nie
ruszyłby z miejsca. A ja się z tym absolutnie
zgadzam. Pamiętam, jak kiedyś - a był to rok bodajże 1998 lub
1999 - rozmawiając w pociągu z kolegą o fenomenie Windowsa, wtrącił się
jakiś pasażer, młody chłopak, który był zwolennikiem Linuxa - twierdził
On, że Linux już wkrótce pokona "dziadowski Windows". Założyłem się
wtedy z nim honorowo, że dopóki Linux będzie takim systemem jakim jest -
tj. będzie siermiężny i nieprzyjazny użytkownikowi, nie ma najmniejszych
szans na zagospodarowanie rynku. I nawet pomimo różnych dystrybucji
Linuxa dzisiaj widzimy, że system ma około 5-7 % ogólnoświatowego rynku
- ale głównie w zastosowaniach serwerowych. Nie tylko, że miałem rację w
tej materii - ale kiedyś, kiedy jeszcze królowały płyty vinylowe dla
DJ-i również honorowo założyłem się (a właściwie wynikła z tego
sprzeczka, ale nie obelżywa, tylko twardo stawiająca racje po obydwu
stronach), że już wkrótce płyty 12-calowe vinylowe będą zastąpione przez
mp3 nagrane na płytach CD i że większość DJ-i światowych oraz cały rynek
przeniesie się na te nośniki. Tylko jeden DJ się ze mną zgodził - reszta
- a było ich kilkunastu - ale szczególnie jeden - wyśmiali mnie wprost,
że mogę się "popukać w czoło" - kto miał rację widać dzisiaj -
ponad 90% DJ-i nie korzysta już z vinyli, bo są niepraktyczne,
nieporęczne, o wiele droższe. Dzisiaj zaś twierdzę, że
moja wizja WEB 3.0 lub coś na
kształt mojej wizji (jeśli nie nastąpi jakiś gwałtowny zwrot w
dziedzinie IT i web) będzie kiedyś standardem.
Zawsze kibicowałem Microsoft za wypuszczenie serii Windows (oprócz
Vista), bo przecież lubiąc czy nie lubiąc tej firmy trzeba przyznać, że
dzięki tej firmie zmieniło się technologiczno-softwarowe oblicze świata.
Jest jednak coś, co czyni, że obecnie nie podoba mi
się kierunek przyjęty przez Świat IT (hardware i software) -
do mniej więcej 2003-4 roku - świat IT był regulowany przez pryzmat
pieniądza owszem - ale szefowie firm napędzali ich pracowników i całe
firmy były przestawione na zasadę: "Wymyślcie coś lepszego niż nasza
konkurencja, zastosujcie lepszej jakości materiały, dopracujcie produkt
- bo w końcu honorowo musimy ich pokonać i pokazać, że jesteśmy lepsi" -
a zysk przyjdzie sam. Tak mniej więcej był nastawiony świat IT.
Dzisiaj pomimo POZORNEGO skoku i miniaturyzacji - oraz zalewu
technologii na masowy rynek - rynek IT jest mniej kreatywny. O grach
video będzie później - ale na ich przykładzie: w początkowej fazie
rozwoju tego segmentu IT - każda następna gra konkurencyjnej firmy
liczącej się w branży była około dwukrotnie lepsza lub miała jakiś
nowoczesny element, który wyznaczał nowe standardy. Ktoś powie: ale to
oczywiste, bo pomysły się skończyły - przekroczono jakiś punkt,
wymyślono, co miało być wymyślone i mamy okres zastoju. I tu jest
popełniony błąd. Ale o grach za chwilę. To, co mamy dzisiaj, ten rzekomy
rozwój IT to wcale nie zdrowy, ekspansywny złoty wiek - a zalew tandety,
wtórności, dziadostwa, czasem wręcz przerażającej głupoty programistów -
a nade wszystko - zlikwidowanie balansu pomiędzy nowymi technologiami a
zyskiem wepchnęło świat IT w ciągłe odgrzewanie nieświeżych kotletów - a
nowe technologie NIE są wymyślane dlatego, że stare już są mało wydajne
i przyda się coś nowszego - ale są wymyślane dla otoczki, dla
opakowania, dla marketingu - który ma przynieść pieniądze.
Bardzo trudno będzie wyjść z tych kajdanek, które nałożyły sobie
firmy i branża IT - oprogramowanie nie jest prawie w ogóle
optymalizowane (może jedynie drogie programy, ale i programiści tych
projektów liczą zawsze na nowszą, mocniejszą generację sprzętu).
Gry komputerowe (Video games). Po tej branży, która zawsze
była jednym z najsilniejszych motorów branży IT widać, jak nisko upadł
świat i branża IT. Dawniej gry były innowacyjne, lepsze, wymagające
inteligencji i myślenia (chociaż oczywiście były też bezmyślne
młóckarnie hack'n'slash). Dzisiaj otrzymaliśmy efekt taki, jak cały
świat - wszystko jest robione coraz bardziej idiotyczne, bezsensownie
zbyt proste, nie wymagające myślenia. Wychowano społeczeństwo na wzór
oglądaczy TV. Gdzież tam nowym grom stanąć obok dawnych produkcji,
wymagających myślenia, rozwoju - dzisiaj gry zostały tak uproszczone, że
wszyscy "starzy wyjadacze" wiedzą o co mi chodzi. Grafika w grach była
jednym z najważniejszych stymulatorów rozwoju - chociaż nie zawsze: moja
ulubiona gra i seria Thief była zawsze nieco gorsza graficznie od
najlepszych na rynku - ale za to nadrabiała niesamowitą fabułą,
pomysłami, rozgrywką, zmuszała do myślenia, oczekiwania na odpowiedni
moment, rozwijała fantazję dobrze tutaj rozumianą. A jednak do około
2003-4 roku gry, które pojawiały się na rynku niemal zawsze miały
grafikę mniej więcej dwukrotnie ładniejszą od poprzedniej generacji.
Owszem, dzisiaj zdarzają się wyjątki od reguły (Crysis) - ale
napakowanie bardzo ładnej grafiki do przeciętnej gry - na dodatek nie
zoptymalizowanej wywołuje poczucie zażenowania. A właśnie: optymalizacja
kodu gier. Kiedy ja zaczynałem swoją przygodę z IT - programy i gry były
świetnie optymalizowane - pojawiały się patche (łatki), które poprawiały
znacząco kod gry. Jednak później postanowiono pójść na łatwiznę -
wszyscy się tak dogadali w branży, że "po co będziemy optymalizować kod,
jeśli za pół roku wyjdzie na rynek karta, która bez problemu obsłuży
naszą grę" - i tak właśnie stopniowo zaczęli sami na sobie wymuszać na
developerzy i twórcy, że gry będą robione krócej, za mniejsze pieniądze
(bo za optymalizację kodu ktoś musi zapłacić programistom), niemal w
ogóle ich nie optymalizując pod dostępny sprzęt. Dzisiaj bardzo rzadko
jest naprawdę uzasadnione graficznie, że dana gra faktycznie musi się
dławić na najnowszych kartach grafiki - gra Crysis została wydana pod
koniec bodajże 2008 roku - a dopiero komputery z 2010 roku są w stanie
jej podołać technologicznie. Kiedyś słusznymi kamieniami milowymi był
Duke Nukem 3D, Quake (I-III), czy hiper niesamowity Unreal, którego
grafika w 1998 roku dosłownie powalała na kolana - tam faktycznie moc
komputera była uzasadniona. Tymczasem wydane po tym roku gry, nawet
uwzględniając nowego Dooma, którego engine był prawie w ogóle
nieprzydatny, ponieważ grało się głównie w ciemnych korytarzach, gdzie i
tak nie można było dostrzec subtelności grafiki. Ostatnią grą z
uzasadnionymi wymaganiami graficznymi można powiedzieć pozostaje gra Far
Cry (firmy Crytek, twórcy późniejszego nieuzasadnionego Crysisa) - czy
chociażby Half-Life 2 - która słusznie została okrzyknięta grą FPP
wszechczasów.
Już wielokrotnie udowadniano, że kod da się dobrze zoptymalizować - i
co lepsi twórcy gier jednak czasem optymalizują swoje kody - jednak tak,
jak kiedyś było niehonorowe i bezgustowne nie optymalizowanie kodu - tak
dzisiaj prawie nikomu nie chce się optymalizować kody - "no bo przecież
mamy 2 lub 4 rdzenie cpu i miliardy tranzystorów karty grafiki".
Tak samo, jak nieuzasadnione było przejście na PCI-Express - ówczesny AGP (Akcelerowany Port Grafiki) działał bardzo dobrze - po prostu
tworzyło się kolejne wersje AGP - które były zgodne "wstecz". Ale znowu
twórcy płyt głównych wmówili Nam, że konieczne jest zaprojektowanie
nowego standardu PCI-E - bo AGP jest zbyt wolny.
Jestem ciekaw, skoro PCI-E było tak konieczne, dlaczego wraz z nowymi
płytami głównymi nie opracowano nowego standardu, zamiast USB 2.0. Ależ
byłoby oburzenie - od razu odsądzano by od czci i wiary - że inny
standard zablokowałby dobrze prosperujący biznes. Ale ponieważ
użytkowników kart graficznych jest o wiele mniej, niż użytkowników
standardu USB - więc zmusimy wszystkich chętnych do zakupu nowej karty
graficznej do kolejnej zmiany sprzętu - i tak wymienia się co chwila
standard RAM, nowe podstawki pod cpu, (Intelu, przesadzasz! Co półtora
roku nowa podstawka, do której już nowe procesory nie pasują...).
Sami twórcy sprzętu komputerowego strzelili sobie w stopę.
Ludzie, którzy nie myślą nad swoją przyszłością! Wiele firm już nie
produkuje gier na PC albo wycofuje się z tego rynku - bo co chwila
wchodzi nowy, niekompatybilny i pełen problemów sprzęt - a pisząc grę
pod konkretną konsolę - programiści piszą dobry, niemal bezproblemowy
produkt. Dlaczego kiedyś okaże się, że zbytnia pazerność i niepohamowana
chęć zysku będzie przyczyną docelowego zmniejszenia zysków części tego
segmentu IT? To proste. Ludzie się już obecnie bardzo zmęczyli
nieustannymi problemami z niekompatybilnością ("a Twoja karta nie
obsługuje DirectX 11 a moja tak i ja sobie pogram, a Ty nie"), błędami
itd. Co się stanie, kiedy w końcu firmy niemal w ogóle zrezygnują z
tworzenia gier na PC? Ano, zastój na tym rynku - po co bowiem kupować
nowe komputery, po co zwiększać ilość RAM? Po co nowe procesory? Tylko
gry komputerowe wymuszały aż taki postęp w dziedzinie PC. I co 3-6 lat
system Windows. Z tym, że za przemyślanym, kontrolowanym i rozsądnym
rozwojem to myślę każdy z Nas jest na "tak".
Jeśli użytkownicy coraz mniej będą mieli ochotę na kupowanie co rok
nowej karty grafiki a do tego nowego komputera, który pożera gigantyczne
ilości Watt - bo nikomu nie chciało się optymalizować gier (a producenci
kart grafiki zacierają ręce) - sprzęt, jak i zużycie energii oraz
wszystko dookoła wydaje się być nieuzasadnione - klienci w końcu coraz
bardziej porzucą ten segment i przeniosą się na konsole do gier, co już
ma pomału miejsce. Co to oznacza dla producentów RAM, CPU,
Motherboards, podzespołów dla powyższych (układów scalonych, mostków,
oporników, kondensatorów, cyny, złota, styków, etc)? Oczywiście
zmniejszenie sprzedaży - czyli zwolnienia z pracy ludzi, zmniejszenie
konsumpcji energii i ograniczanie produkcji części zakładów, bo rynek się nasyci -
tak więc zbyt ekspansywny i nieuzasadniony rozwój długofalowo będzie jak
walenie głową w ścianę po dużej dawce alkoholu - co prawda teraz nie
czujemy bólu, ale rano będziemy przeklinać ostatni kieliszek.
Niech Czytelnik mi uwierzy - jako młody człowiek uwielbiałem "grzebać
w sprzęcie" - i gdybym poszedł dalej w tym kierunku, pewnie pozostałbym
dobrej klasy overclockerem. Porzuciłem jednak to dla innych,
ważniejszych rzeczy. Prawda jest taka, że jeśli jesteś overclockerem -
to owszem, badanie możliwości sprzętu, gier, benchmarków - jest
pożyteczne, jest frajdą. Ale dla przeciętnego użytkownika/gracza po kilku latach
intensywnego zajmowania się tym tematem jest zbyt uciążliwe. Nie myślmy
tutaj kategoriami szefów i redaktorów czasopism gier video - bo oni z
tego żyją! Żyją z reklamowania i opisywania "wspaniałych, nowych gier" -
musisz tylko co pół roku albo co rok wydać 4 tysiące złotych (skromnie!)
na nowy komputer. Kiedyś tak nie było. I właśnie kiedyś było lepsze. Nie
dlatego, że byłem wtedy młody i nie dostrzegałem problemów - a dlatego,
że był Microsoft-Intel-Amd (czyli "tatusiowie"), potem producenci
sprzętu (czyli "mamusie"), potem developerzy gier video (czyli "dzieci")
- utrzymywanie tej konfiguracji i uzasadnione wdrażanie DirectX (które
spokojnie mogło jeszcze zostać na DirectX 9 - a mamy już 11, tymczasem
jeszcze programiści nie potrafią dobrze wykorzystać potencjału numeru
9!). Później zaczęto brutalnie pozbywać się konkurencji, wdrażanie
swoich standardów na siłę - wykończenie konkurencji ustawiło branżę IT
na grzędzie lenistwa - pozostały 2-3 ośrodki, które zbyt szybko chciały
się dostać do Naszych kieszeni. W coraz bardziej marketingowe opakowania
zaczęto oprawiać byle co - czego efektem jest:
- że dzisiejsze fabuły gier są w większości przeznaczone dla
tępaków
- gdyby programiści dobrze programowali gry (optymalizacja i
grafika) - to w Crysisa moglibyśmy na przyzwoitych detalach zagrać
komputerem z 2005 roku
- nie wyszedłby Windows Vista, tylko od razu Win 7
- PC mógłby dalej konkurować z konsolami, ponieważ dłuższa
żywotność sprzętu pozwalałaby na wyrównanie szans
- Układy graficzne na PC są kilku(nastokrotnie) mocniejsze od
przeciętnej konsoli do gier video (Playstation, X-Box) - a grafika
działa płynnie na konsoli, na PC nie i ciągle są problemy z tego
powodu
- Zaistniało zagrożenie zahamowania rozwoju rynku PC - co odczują
kiedyś wszyscy producenci sprzętu do PC (od zasilaczy po obudowy)
- Zamiast obniżać ceny sprzętu PC - ceny komputerów i większości
podzespołów rosną w ogromnym tempie - tym bardziej w kryzysie - moim
zdaniem, jeśli widzę, że cena zestawu komputerowego wartości około
1500 złotych wzrosła o 300 zł (!!!) w ciągu pół roku - to pozostaje
tylko jedno wyjaśnienie. Kryzys przystopował tylko na chwilę - i
wiedzą o tym wszyscy, dlatego jeszcze ostatnim rzutem na taśmę każdy
sprzedaje to, co się da, żeby zarobić na "chude lata". Drugą kwestią
jest, że polscy pośrednicy windują niebotyczne ceny - sprzęt
elektroniczny w Królestwie Niderlandów, Niemczech, USA jest po
prostu tani w stosunku do ich zarobków. W Polsce niemal wszystko
jest strasznie drogie - od usług bankowych, przez internet, GSM,
hardware i software, itd. No bo jeśli przeciętny Niemiec czy
Amerykanin za przeciętną wypłatę może sobie kupić 10-15 legalnych
kopii np. Windows 7 - a w Polsce cena sięga 400 zł - co przy
średniej 1800-200 zł wynosi ledwie 5 kopii?
Karty grafiki. W tym segmencie rynku jest dokładnie taki sam
bajzel, jak w pozostałych - zwiększanie ilości tranzystorów przy braku
optymalizacji sprzętu i kodu doprowadziło do dzisiejszej sytuacji. Kiedy
ja kupowałem moją Riva 128 co mniej więcej rok - do 1,5 roku wprowadzano
nowy układ graficzny. To niby tak, jak dzisiaj. Jednak jest znacząca
różnica. Kiedy wprowadzano nowe układy graficzne (poczynając od
rewelacyjnego skoku układu Voodoo firmy 3dfx, która zniknęła z rynku a
jeszcze wcześniej układu Virge firmy S3, który miał jako pierwszy
filtrowanie textur) faktycznie ich jakość podwajała się - zarówno
wprowadzanie nowych możliwości graficznych i zaawansowania była tworzona
odrobinę "na wyrost". Dzisiaj układy graficzne i tempo ich wdrażania
jest tak oszałamiające i bezsensowne (średnio co 9 miesięcy nowy układ
graficzny) - ich mylące i wprowadzające w błąd nazewnictwa skutecznie
utrudniały i do dzisiaj utrudniają dobry wybór karty grafiki. Na rynku
pozostała Nvidia i Ati - dwaj potentaci, z których zawsze byłem
zwolennikiem (przynajmniej na początku) Nvidia - oczywiście nie dawałem
się wciągnąć w suche polemiki "a bo moja firma robi lepsze i szybsze
karty" - tak samo jak Intel zawsze był (do pewnego momentu) lepszy od
AMD tak Nvidia była niemal zawsze (też do pewnego momentu) lepsza od Ati.
A wynikało z prostej przyczyny: tak jak procesory Intela nie sprawiały
kłopotów w Windows i niektórych programach - tak do pewnego momentu
procesory AMD (nie mówiąc o zapomnianych Cyrix'ach) miały same problemy
- przegrzewały się, były kruche, po prostu bardziej kłopotliwe dla
użytkownika - chociaż tańsze. Tak samo NVidia vs Ati - Nvidia miała
nieco gorszą jakość grafiki (minimalną, choć zauważalną) - tak Ati
zawsze było wolniejsze, bardziej kłopotliwe - gry nie chciały się
uruchamiać, trzeba było nieustannie czekać na patche do gier,
sterowników do programów. Dzisiaj Ati przegoniło Nvidię jeśli chodzi o
pobór mocy i szybkość układów graficznych. AMD nie tylko, że wprowadza
co rok idiotycznej zmiany podstawek pod nowe procesory jak Intel - przez
to jest wiarygodniejszym partnerem i producentem - ale do starych płyt
głównych właśnie przez to można wkładać nowe procesory. Intel natomiast
ciągle zachowuje się jak monopolista i ciągle popełnia te same błędy:
nowy procesor to prawie na pewno nowa podstawka - a to wymaga zmiany
płyty głównej, lub zakupienia przejściówki (o ile takowe istnieją). I
znowu powraca tutaj sprawa niepisanych umów: wy robicie nowy procesor i
podstawkę, my nowe płyty główne, chipsety - i tak kołowrotek się kręci.
Społeczeństwo jednak robi się tym coraz bardziej zmęczone - a spirala
sztucznego marketingu wmawia Nam, ilu to jest użytkowników zachwyconych
taką polityką.
Mniejsi gracze na rynku (S3, Matrox) zostali "zjedzeni na śniadanie"
- powstała hegemonia 2 koncernów graficznych: Ati i Nvidia. Dla Nas,
klientów byłoby lepiej, aby graczy na tym rynku było co najmniej trzech
- a nawet czterech. Wtedy znowu firmy zaczęłyby pracować NIE nad ilością
upakowanych tranzystorów w układzie - a nad optymalizacją tego co już
mamy - w efekcie otrzymywalibyśmy karty graficzne, które pobierałyby
mniej prądu a były bardziej wydajne. Dzisiejsze dwu- a nawet
trzy-slotowe potwory straszą z komputera wielkimi radiatorami i
systemami wodnymi, które ledwo radzą sobie z odprowadzaniem ciepła.
Nvidia tak się zapędziła w kozi róg w układach graficznych, że jej
ostatni produkt kodowy "Fermi" przysporzył jej wiele problemów - firma
dostarczająca bowiem układy krzemowe, nie umiała poradzić sobie z
technologią, czego skutkiem był fakt otrzymywania z jednego "wafla"
krzemu tylko jednego lub dwóch procesorów. W efekcie dzisiaj mamy tylko
namiastkę wspaniałych "bitew" branżowych sprzed lat: firmy udają, że
wypuszczają nowe układy (chociaż są tylko lekkimi ulepszeniami nic nie
wnoszącymi), redaktorzy branży benchmark i gier udają, że "oto nadchodzi
nowy król", chociaż doskonale wiedzą, że "nowy" układ ma tylko kilka
milionów tranzystorów więcej, pożera więcej prądu i jest tylko starą
kartą w nowym opakowaniu, klienci udają, że oto właśnie zauważyli skok
jakości o...3-4 klatki na sekundę.
Kiedyś naprawdę poprawiano grafikę - gdyby tempo rozwoju jakości
grafiki rosło tak samo jak kiedyś - dzisiaj mielibyśmy grafikę w grach
komputerowych bardzo zbliżoną do rzeczywistości - nie tylko, że nie ma
żadnych istotnych innowacji od momentu wprowadzenia GeForce (FSAA i parę
sztuczek z wygładzaniem to "nowości" dla małolatów") - ostatnimi ważnymi
innowacjami były obliczenia Geometryczne (od geforce, czyli pixel i
texel), bump-mapping, antyaliasing i wprowadzenie Shader Model (czyli
shaderów). I to wszystko - wszystko co wprowadzono po DirectX 9.0c jest
tylko wydmuszką i "bajerem".
A jak śmieszą mnie zdjęcia i artykuły porównujące jakieś drobne
pixele: "widzicie? w lewym górnym rogu włosa postaci włos rzuca taki
mały cień - oto innowacja" - prawdziwe innowacje to te, które jest w
stanie zauważyć użytkownik - reszta innowacji (może oprócz Z-bufora)
jest jedną wielką marketingową ściemą.
Próba wciskania mi nieruchomych zdjęć i pokazywania, że różnice
pomiędzy DirectX 10 i 11 są istotne - budzą we mnie śmiech politowania.
Gry są dynamiczne i tylko istotne zmiany zawsze są zauważalne. Czas i
innowacje zatrzymały się 4 lata temu - a tak faktycznie to jeszcze
wcześniej.
Blokowanie uruchamiania nowych gier na tylko nieco starszych układach
("Twoja karta nie obsługuje DirectX 150. Idź i kup nową za trzy
tysiące, bo nie chciało się Nam optymalizować kodu, więc zablokowaliśmy
możliwość uruchomienia gry na karcie sprzed zaledwie roku. I tak jesteś
idiotą, więc kupisz) jest wyrazem nieudacznictwa, lenistwa i
pazerności.
Ta krótkowzroczność będzie jeszcze długo wykorzystywana, ponieważ
wchodzą ciągle nowe generacje dzieci i młodzieży, która daje się
nabierać na te same hasła. Jedni podniecają drugich: "wow, wyszedł nowy
procesor graficzny - teraz w rozdzielczości 8000x8000 będziesz miał
półtorej klatki na sekundę więcej".
I co to za nowe karty graficzne, jeśli w niższych rozdzielczościach
zadławiają komputer?
Pewnie usłyszę, że narzekam. Że taki jest duch postępu. Prawda jest
jednak taka, że cała branża IT ze swoich dawnych ideałów zdrowej (a
czasem mniej zdrowej) konkurencji, z chęci honorowego wynalezienia
czegoś lepszego ("oni zrobili układ lepiej, ale my następny zrobimy
jeszcze lepszy - oni zrobili dobry program, ale my zrobimy lepszy) -
została wydmuszką.
Chęć dominacji i posiadania palmy pierwszeństwa, chęć ulepszania - była
stymulatorem i motorem - zysk zaś był efektem ubocznym rozwoju IT. Ktoś
powie: co za bzdura - przecież firmy zawsze tylko chciały zarabiać,
zarabiać i jeszcze raz zarabiać. Nigdy nie patrzyły na dobro użytkownika
- tylko na własne kieszenie. Ja się z tym zgodzę - tylko, że balans
pomiędzy jakością, produktem, ceną, efektem końcowym dla użytkownika -
był mniej więcej regulowany przez: jakiegoś poziomu przyzwoitość branży,
młodzieńczy zapał i chęć zdrowej rywalizacji (szefowie ówczesnych firm
to byli wówczas młodzi ludzie z ideałami).
Krytykuje się Billa Gates'a i Steve'a Jobs'a mówiąc, że Windows to
był gniot, że się zawieszał i był przereklamowany. Krytykuje się Jobsa
mówiąc, że On by nawet zrobił konferencję na temat zwykłej zapalniczki
wmawiając, że jest to przełomowy wynalazek.
Prawda jest taka, że Billowi Gates'owi zawdzięczamy nieprawdopodobny
skok technologii, software (co nie oznacza, że nie śmieszyły mnie i
dalej nie śmieszy Windows, który dopiero w wersji 7 zawiera to, co ja
już wymyśliłem pracując przy Windows 95). Windows 95, 98, XP zawierał
wiele idiotyzmów - aż śmiechem się zanosiłem, że dopiero w kolejnych
wersjach wdrażano oczywiste rozwiązania.
Jednak to Gates i Microsoft wywindował i rozkręcił branżę IT i należy
chylić mu czoła. Jednak to od 6-7 lat tylko Steve Jobs wprowadził
prawdziwe innowacje jak IPhone, IPad dotykowy, IPod. Reszta to wtórne
kopie ich pomysłów.
Teraz znów czekamy na jakiś przełom. Może jakiś nowy standard? Dyski
SSD (solid-state drive) są jeszcze bardzo drogie w stosunku do
niewielkiej pojemności, technologia Wi-Max nie przyjęła się (z co
najmniej dwóch powodów). Jedynie PC stoi w miejscu: nadal olbrzymie
obudowy, olbrzymie podzespoły. Co prawda są próby wprowadzenia mini PC
(z płytami ITX) wielkości połowy kartonu po butach, ale są jeszcze mało
wydajne (chociaż oparte na świetnym procesorze Atom).
Kiedy możemy spodziewać się realnego skoku
szybkości i jakości branży IT?
Jeśli chodzi o PC, w kartach grafiki tkwi olbrzymia, niewykorzystana
moc. Twórcy oprogramowania i sami twórcy kart grafiki już kilka lat temu
przebąkiwali o tym, że czas, aby karty grafiki w trybie 2D (czyli na
pulpicie systemu) zaprząc do pracy - ich potężne procesory i pamięć ram
mogłaby skutecznie być wykorzystana.
Jednak producenci procesorów panicznie boją się takiego rozwiązania -
bo ktoś w końcu mógłby wpaść na pomysł: "a po co ja mam korzystać z
procesora Intela lub AMD - skoro wystarczy wykorzystać moc karty
grafiki". Powiem więcej, ktoś mógłby wpaść na "bezczelny" pomysł, aby
spróbować zbudować płytę główną, która będzie korzystała zamiast CPU z
procesora karty grafiki. Albo, co bardziej ciekawe, ktoś wyjmie GPU i
testowo wlutuje go zamiast CPU - lub zrobi software, który poszczególne
obliczenia będzie wysyłał do GPU - wtedy już nie będzie odwrotu. A ja
myślę, że ktoś to w końcu zrobi. A to będzie heca!. Na razie
jeszcze się w tej sprawie dogadano, jeszcze się wstrzymują. Czyli
wykorzystanie obecnego potencjału 64-bitów i kart graficznych.
I to będzie (1) pierwszy krok do nowego
rozdziału PC a co za tym idzie, znacznego segmentu branży IT
- powstaną mocne komputery PC wielkości książki - bo będą w nich
zainstalowane potężne i dopracowane procesory grafiki, dyski SSD, nowe
standardy jak USB 3.0 i inne.
Drugim (2) krokiem będzie wynalezienie
przełomowej technologii, która odmieni oblicze IT - nie wiemy
jaka to technologia, bo jej jeszcze nie ma. Dopóki ktoś nie wpadnie na
prosty-genialny pomysł wszyscy zawsze kręcili nosami. Branży IT (zresztą
każdej branży) przydaje się raz na 10 lat mocny przewrót i kopniak, bo
robi się zabetonowana, pomimo pozoru rozwoju. Było wiele
niby-rewelacyjnych technologii (jak chociażby już w 1996 roku
wynaleziono tranzystory ultrafioletowe, które były co najmniej 4-krotnie
szybsze - i co? po 15 latach technologii tej nie ma, pewnie z powodu
kosztów). Kiedy procesory zbliżyły się do progu swojej wytrzymałości
technologicznej, czyli 32 nm procesu technologicznego i około 4 Ghz
taktowania procesora - wydawało się, że nic nie uratuje tej branży - a
jednak. Proste rozwiązanie jak zwielokrotnienie rdzeni procesora znowu
zaczęło zabawę od nowa - teraz mamy 2-4-6 rdzeni w procesorze, których
ani systemy ani gry ani programy komputerowe nie wykorzystują z małymi
wyjątkami. Zwiększenie wydajności następuje, owszem, przy zastosowaniu
najszybszych dysków SSD, najnowszych chipsetów płyt głównych. Tak samo
jak niewykorzystane 64-bitowe systemy - już od kilku lat istnieją - a
nikt ani nie wprowadził usprawnień, aby z nich korzystać. Może taki jest
właśnie plan? Może mają leżeć odłogiem, a kiedy ten segment branży IT
dojdzie do progu, wtedy leniwy Microsoft i jeszcze bardziej leniwi
programiści w końcu będą zmuszeni do napisania dobrych kodów programów,
które faktycznie wykażą korzyść z wielordzeniowości i 64-bitowości? I to
jest właśnie owa dodatkowa różnica: dzisiaj nie robi się czegoś pomimo -
a czeka się na dojście do bariery i potem się tworzy nowe technologie.
Kiedyś właśnie dlatego tak szybko przyrastał rozwój IT - ponieważ ciągle
w laboratoriach opracowywano dobre, szybsze, lepsze technologie.
Dzisiaj owe szybsze i lepsze technologie mamy w swoich komputerach
- tylko po co mi one, skoro są marginalnie wykorzystane? Po co mi nowy
chipset, nowy 6-rdzeniowy procesor, nowa karta grafiki, więcej ramu,
nowy system 64-bitowy, nowy prądożerny zasilacz - skoro mój komputer
sprzed roku czy dwóch ma ciągle niewykorzystany potencjał. Coraz
bardziej niedopracowane programy, szumnie podobno wykorzystujące
wielordzeniowość w testach okazują się 5-10 % szybsze od pojedynczych!
Ja na moim starym, już nie istniejącym Pentum II 300 Mhz uruchomiłem
UNREAL-a - a w gry, które ukazały się długo po zakupie komputera mogłem
spokojnie grać - i one były lepsze graficznie tyle, że były
optymalizowane.
Dzisiaj gra zajmuje nieuzasadnione 2-3 płyty DVD - czasem po 30 GB
zainstalowane na dysku komputera - tylko co tyle zajmuje? Ścieżka
dźwiękowa w mp3? Nie...koniecznie nowy, dziwny format. Czy może
tekstury? Tak - koniecznie nieskompresowane, żeby przy detalach na High
i Ultra nie było widać różnicy. A może renderingi filmowe pomiędzy
levelami? TAK - koniecznie nieskompresowane, lub skompresowane dziwnymi
kodekami - żeby to samo, co zakodowane w XVID lub DIVX zajmowało 10 razy
więcej. Bo przecież jakoś gra, która zajmuje 15 godzin grania i gracz
może ukończyć ją w dwa dni musi kosztować 200 złotych! A gdyby tak gra
zajmowała niecały DVD? Toż klienci gotowi pomyśleć, że "za co oni
płacą"?
Napakowane sianem programy, które zajmowały 20 mb - stały się pół
gigabajtowymi molochami, z których każdy musi KONIECZNIE mieć Media
Center - i tych media center mamy po pięć w pasku zadań - bo każdy
program chce być tym używanym i najważniejszym.
Dzisiejsza branża IT dziedziny PC, software
i hardware przypomina hamburgera, z którego na siłę zrobiono tortillę i
kebab w jednym. Ani to smakuje, ani wygląda, ani to poręczne.
Jeśli zamawiam hamburgera, to chcę poczuć jego smak. A jak tortillę, to
chcę tortillę.
Microsoft przez lata zachowywał się jak rozkapryszone dziecko i nie
mógł zrozumieć, dlaczego ludzie nienawidzą Internet Explorera, który
zmuszał ludzi do używania samego siebie - bo nic innego nie było. Jednak
Firefox i Opera otrzeźwiły obecnego szefa firmy Steve'a Ballmera i
tworzony jest nowy IE. Firefox zgarnęła już połowę rynku w tej branży. I
bardzo dobrze. Zawsze jest najlepiej, kiedy sami klienci dają odczuć
gigantom, że to od nich zależy wybór. I co ciekawe, nawet wprowadzenie
nowego IE nie przekona wiernych użytkowników.
Kiedy bowiem wierni użytkownicy porzucają swój ulubiony program?
Kiedy twórcom danego programu woda sodowa uderza do głowy. Kiedy
zaczynają napakowywać do ulubionego programu niepotrzebnych bzdur, nie
wynikających z faktycznych potrzeb. Program zaczyna się rozrastać,
zaczyna wolniej działać. Wtedy użytkownicy szukają alternatywy. Taka
alternatywa czeka system Windows. Ktoś w końcu się kiedyś odważy zrobić
system w miarę dobry i alternatywny do celowo debilnego Linuxa (TAK,
dobrze słyszeliście - Linux to najbardziej przeciwstawny użytkownikowi
system - ja bardzo szanuję Linuxa jako system i jego użytkowników -
jednak jego szefowie, a raczej szefowie dystrybucji z jakichś powodów
celowo nie wprowadzają takiej dystrybucji, która będzie prosta w
obsłudze, która da alternatywę wyboru - można się tylko domyślać,
dlaczego przez niemal 20 lat nie przystosowano Linuxa przyjaznego
użytkownikowi).
A więc przełomowa technologia!
A (3) trzecim krokiem w IT będzie
wprowadzenie WEB 3.0. I to
właśnie coś podobnego do mojej wizji. Oczywiście IT nie jest trwałe i
sztywne, dlatego za parę miesięcy lub lat nowe technologie jeszcze tylko
rozszerzą mój WEB 3.0 o owe technologie. Z zastrzeżeniem, że jeśli nie
zdarzy się żadna przełomowa technologia, która wykluczy istnienie mojego
WEB 3.0 - jestem przekonany, że nie dalej niż za 20 lat (jeśli IT
pójdzie nadal w podobnym kierunku) to ktoś w końcu wymyśli takie
uproszczenie i kontakt z technologią, jaką ja proponuję. Jasnym jest, że
nikt nigdy nie powtarza tej samej ścieżki - dlatego też najważniejszą
konkluzją mojego Web 3.0 jest, że skonsoliduje, zepnie, scali
technologie w służbie człowiekowi. Przecież Web 3.0 to nie tylko
technologia obórki informacji internetowych - to również technologia
<poza> komputerem a która umożliwia <łączenie> się z web.
|