KIM BYŁEM ?   -   KIM JESTEM ?   -   GDZIE ZMIERZAM ?

 Rynek IT - IT Market

(Games, Devices, Development, Future, WEB 3.0)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 
Ta ikona informuje, że w jej pobliżu znajduje się
 odnośnik (link)
 prezentujący temat.

 

Rynek IT - Gry, urządzenia, rozwój, przyszłość

29.06.2010

>Strona główna>Artykuły


FELIETONIq

Dlaczego dzisiaj mamy zastój rozwoju IT, gier video, urządzeń elektroniki?

Jak może wyglądać przyszłość, jak wyjść z impasu?

====================================================

Zapewne wielu Czytelników nie zgodzi się z powyższymi pytaniami, ponieważ dookoła widzimy, że coraz więcej ludzi kupuje telewizory LCD, technologie stają się coraz tańsze i nowocześniejsze (np. OLED). Producenci zaś chwalą się coraz to nowymi wynikami sprzedażowymi - wszystkim się więc wydaje, że wszystko jest ok.

Jednak część czytelników to ludzie młodzi i bardzo młodzi. Ja, mając obecnie prawie 31 lat pamiętam czasy początku rozwoju rynku IT - czyli ekspansję światową od około 1995 roku (chociaż oczywiście ekspansja ta zaczęła się wcześniej).

Wtedy też nowinki w układach graficznych, IT - w ogóle w niemal każdej dziedzinie były porządne, wynikające z ekspansji, nie z materializmu.

W ogóle świat poszedł na dno, jeśli chodzi o jakość - jakość muzyki, życia, produktów - niemal wszystko w ciągu ostatnich 15-17 lat obniżyła się drastycznie.


Oto, co mieliśmy kiedyś - a co mamy dzisiaj (porównanie):

Sprzęt komputerowy - rozwijał się bardzo dynamicznie - wszystko wynikało z faktycznej potrzeby przedsiębiorstw, rynku, ludzi. Wprowadzano nowe standardy z głową w sposób dynamiczny, ale nie idiotyczny (jak to ma miejsce dzisiaj). Kiedy złącze PCI zastępowało ISA wszyscy wiedzieli i widzieli, że to było dobre, słuszne. Kiedy PS/2 zastępowało DIM, kiedy USB zastępowało PS/2. Dzisiaj wszystko upychane jest na siłę dla zarobienia pieniędzy - kiedyś ekspansja była bardziej wypoziomowana - firmy konkurowały ze sobą na zasadzie zdrowej konkurencji (owszem, zdarzały się walki, problemy - ale to było zdrowe). Jedynym słusznym standardem, który pozostał niemal niezmieniony jest "stary, poczciwy ATX" (jest to standard dopasowania wielkości płyt głównych do obudów komputerowych, tj. standard, który od ponad 10 lat prawie w ogóle się nie zmienił). Jak wszystko ponad 15 lat temu, niemal każdy sprzęt był robiony "na jakość" - dzisiaj niestety jest odwrotnie - trzeba się mocno napocić, aby znaleźć dobrej jakości podzespoły komputera - chyba jedynymi, które utrzymują nadal wysoką jakość pozostają procesory komputerowe (Intel, AMD) oraz...zasilacze komputerowe (Tagan, Chieftec, czy z wyższej półki Antec, Huntkey, itp). Dzisiaj za bardzo dobrej jakości uważane są płyty główne (motherboard), które kiedyś uważane były za "dopuszczalnej jakości". Kiedy rynek był regulowany przez zdrową konkurencję - firmy zaczęły prowadzić niezdrową, nierynkową walkę, przekupując, wykupując oraz organizując się w quasi-organizacje jedna przeciw drugiej. Walka tylko o pieniądz a nie o jakość zastąpiła zdrowy rozsądek. Owszem, dzisiaj osiągamy rozwój w tych dziedzinach, ale jest to rozwój maskowany, tj. NIE wynikający z tego, że firmy ciągle odczuwały oddech konkurencji (może jedynie pomiędzy Intel-AMD i Ati-Nvidia - ale i te wydają się być pozorowane i nastawione na kontrolowany rozwój).

Oprogramowanie - software. Kolejny temat-rzeka. Kiedy zaczął się boom na oprogramowanie - tysiące firm z całego świata prześcigało się w tworzeniu dobrego oprogramowania. Przykładem niech będzie chociażby Nero firmy Ahead. Na początku był to tylko doskonały program do nagrywania płyt CD i DVD. Potem ktoś wpadł na pomysł, żeby powłączać w skład tego oprogramowania co tylko się da - multimedia, kodeki, projektowanie okładek - i tak z dobrego programu do nagrywania Nero stało się przerośniętym klocem niczego. Kiedy dawniej program mógł zajmować 20-30 Mb - a jeszcze wcześniej około 10 Mb - teraz programy po zainstalowaniu zajmują ponad 200-400 Mb - ich zasoby są w większości niewykorzystane. Żeby jeszcze większość tych firm, które powłączała do swoich dobrych produktów inne dobre produkty (np. wykupiła dobrej jakości produkty innych firm i w ten sposób połączyła swoje możliwości) - to najczęściej firmy tworzyły swoje oprogramowanie - najczęściej było to tworzone na kolanie, wychodziły z tego gnioty oprogramowania - oprogramowanie było niestabilne, bo i kto miał je sprawdzić, jeśli co 2-3 miesiące lub najwyżej pół roku wychodziła kolejna wersja, jeszcze gorsza, jeszcze bardziej "napakowana" innymi gniotami. I tak z firm produkujący dobrej klasy opony samochodowe w ciągu 2-3 lat firmy stawały się byle jakimi dostawcami dziurawych kombinezonów kosmicznych.

Ten przykład przechodził Microsoft - który najpierw stworzył genialnego na ówczesne czasy Windows 95 (owszem, zawieszał się, bywał niestabilny, ale nie sposób nie potwierdzić, że był genialny na swoje czasy), potem równie dobrego Win 98 - a potem ponad rok później firma na siłę zaczęła wypuszczać gniota Windows Millenium - na który narzekali wszyscy oprócz...mnie. Całkiem poważnie, wszyscy mieli problemy z tym systemem, a u mnie działał on bardzo dobrze. Firma jednak wyciągnęła lekcję i wydała na świat niesamowicie dobrego Win XP - potem jednak znowu niemoralne zależności i umowy pomiędzy producentami sprzętu oraz wielkimi gigantami IT sprawiły, że Microsoft aby zapewnić światu kolejny skok technologiczny - wydał Windows Vista - za który został słusznie skrytykowany. Celowo wymuszono w Viście takie rozwiązania, aby system wymagał co najmniej dwukrotnie lepszego komputera, lepszej karty grafiki - czyli otrzymaliśmy to, co było już wielokrotnie przećwiczone - niepisane umowy pomiędzy Microsoftem a członkami branży IT są tak skonstruowane, że Microsoft zawsze kolejny system konstruuje w taki sposób, że wymusza on na użytkownikach wymianę sprzętu na nowszej generacji. Ktoś powie: no i całkiem dobrze, bo wtedy świat IT nie ruszyłby z miejsca. A ja się z tym absolutnie zgadzam. Pamiętam, jak kiedyś - a był to rok bodajże 1998 lub 1999 - rozmawiając w pociągu z kolegą o fenomenie Windowsa, wtrącił się jakiś pasażer, młody chłopak, który był zwolennikiem Linuxa - twierdził On, że Linux już wkrótce pokona "dziadowski Windows". Założyłem się wtedy z nim honorowo, że dopóki Linux będzie takim systemem jakim jest - tj. będzie siermiężny i nieprzyjazny użytkownikowi, nie ma najmniejszych szans na zagospodarowanie rynku. I nawet pomimo różnych dystrybucji Linuxa dzisiaj widzimy, że system ma około 5-7 % ogólnoświatowego rynku - ale głównie w zastosowaniach serwerowych. Nie tylko, że miałem rację w tej materii - ale kiedyś, kiedy jeszcze królowały płyty vinylowe dla DJ-i również honorowo założyłem się (a właściwie wynikła z tego sprzeczka, ale nie obelżywa, tylko twardo stawiająca racje po obydwu stronach), że już wkrótce płyty 12-calowe vinylowe będą zastąpione przez mp3 nagrane na płytach CD i że większość DJ-i światowych oraz cały rynek przeniesie się na te nośniki. Tylko jeden DJ się ze mną zgodził - reszta - a było ich kilkunastu - ale szczególnie jeden - wyśmiali mnie wprost, że mogę się "popukać w czoło" - kto miał rację widać dzisiaj - ponad 90% DJ-i nie korzysta już z vinyli, bo są niepraktyczne, nieporęczne, o wiele droższe. Dzisiaj zaś twierdzę, że moja wizja WEB 3.0 lub coś na kształt mojej wizji (jeśli nie nastąpi jakiś gwałtowny zwrot w dziedzinie IT i web) będzie kiedyś standardem.

Zawsze kibicowałem Microsoft za wypuszczenie serii Windows (oprócz Vista), bo przecież lubiąc czy nie lubiąc tej firmy trzeba przyznać, że dzięki tej firmie zmieniło się technologiczno-softwarowe oblicze świata.

Jest jednak coś, co czyni, że obecnie nie podoba mi się kierunek przyjęty przez Świat IT (hardware i software) -

do mniej więcej 2003-4 roku - świat IT był regulowany przez pryzmat pieniądza owszem - ale szefowie firm napędzali ich pracowników i całe firmy były przestawione na zasadę: "Wymyślcie coś lepszego niż nasza konkurencja, zastosujcie lepszej jakości materiały, dopracujcie produkt - bo w końcu honorowo musimy ich pokonać i pokazać, że jesteśmy lepsi" - a zysk przyjdzie sam. Tak mniej więcej był nastawiony świat IT.

Dzisiaj pomimo POZORNEGO skoku i miniaturyzacji - oraz zalewu technologii na masowy rynek - rynek IT jest mniej kreatywny. O grach video będzie później - ale na ich przykładzie: w początkowej fazie rozwoju tego segmentu IT - każda następna gra konkurencyjnej firmy liczącej się w branży była około dwukrotnie lepsza lub miała jakiś nowoczesny element, który wyznaczał nowe standardy. Ktoś powie: ale to oczywiste, bo pomysły się skończyły - przekroczono jakiś punkt, wymyślono, co miało być wymyślone i mamy okres zastoju. I tu jest popełniony błąd. Ale o grach za chwilę. To, co mamy dzisiaj, ten rzekomy rozwój IT to wcale nie zdrowy, ekspansywny złoty wiek - a zalew tandety, wtórności, dziadostwa, czasem wręcz przerażającej głupoty programistów - a nade wszystko - zlikwidowanie balansu pomiędzy nowymi technologiami a zyskiem wepchnęło świat IT w ciągłe odgrzewanie nieświeżych kotletów - a nowe technologie NIE są wymyślane dlatego, że stare już są mało wydajne i przyda się coś nowszego - ale są wymyślane dla otoczki, dla opakowania, dla marketingu - który ma przynieść pieniądze.

Bardzo trudno będzie wyjść z tych kajdanek, które nałożyły sobie firmy i branża IT - oprogramowanie nie jest prawie w ogóle optymalizowane (może jedynie drogie programy, ale i programiści tych projektów liczą zawsze na nowszą, mocniejszą generację sprzętu).

Gry komputerowe (Video games). Po tej branży, która zawsze była jednym z najsilniejszych motorów branży IT widać, jak nisko upadł świat i branża IT. Dawniej gry były innowacyjne, lepsze, wymagające inteligencji i myślenia (chociaż oczywiście były też bezmyślne młóckarnie hack'n'slash). Dzisiaj otrzymaliśmy efekt taki, jak cały świat - wszystko jest robione coraz bardziej idiotyczne, bezsensownie zbyt proste, nie wymagające myślenia. Wychowano społeczeństwo na wzór oglądaczy TV. Gdzież tam nowym grom stanąć obok dawnych produkcji, wymagających myślenia, rozwoju - dzisiaj gry zostały tak uproszczone, że wszyscy "starzy wyjadacze" wiedzą o co mi chodzi. Grafika w grach była jednym z najważniejszych stymulatorów rozwoju - chociaż nie zawsze: moja ulubiona gra i seria Thief była zawsze nieco gorsza graficznie od najlepszych na rynku - ale za to nadrabiała niesamowitą fabułą, pomysłami, rozgrywką, zmuszała do myślenia, oczekiwania na odpowiedni moment, rozwijała fantazję dobrze tutaj rozumianą. A jednak do około 2003-4 roku gry, które pojawiały się na rynku niemal zawsze miały grafikę mniej więcej dwukrotnie ładniejszą od poprzedniej generacji. Owszem, dzisiaj zdarzają się wyjątki od reguły (Crysis) - ale napakowanie bardzo ładnej grafiki do przeciętnej gry - na dodatek nie zoptymalizowanej wywołuje poczucie zażenowania. A właśnie: optymalizacja kodu gier. Kiedy ja zaczynałem swoją przygodę z IT - programy i gry były świetnie optymalizowane - pojawiały się patche (łatki), które poprawiały znacząco kod gry. Jednak później postanowiono pójść na łatwiznę - wszyscy się tak dogadali w branży, że "po co będziemy optymalizować kod, jeśli za pół roku wyjdzie na rynek karta, która bez problemu obsłuży naszą grę" - i tak właśnie stopniowo zaczęli sami na sobie wymuszać na developerzy i twórcy, że gry będą robione krócej, za mniejsze pieniądze (bo za optymalizację kodu ktoś musi zapłacić programistom), niemal w ogóle ich nie optymalizując pod dostępny sprzęt. Dzisiaj bardzo rzadko jest naprawdę uzasadnione graficznie, że dana gra faktycznie musi się dławić na najnowszych kartach grafiki - gra Crysis została wydana pod koniec bodajże 2008 roku - a dopiero komputery z 2010 roku są w stanie jej podołać technologicznie. Kiedyś słusznymi kamieniami milowymi był Duke Nukem 3D, Quake (I-III), czy hiper niesamowity Unreal, którego grafika w 1998 roku dosłownie powalała na kolana - tam faktycznie moc komputera była uzasadniona. Tymczasem wydane po tym roku gry, nawet uwzględniając nowego Dooma, którego engine był prawie w ogóle nieprzydatny, ponieważ grało się głównie w ciemnych korytarzach, gdzie i tak nie można było dostrzec subtelności grafiki. Ostatnią grą z uzasadnionymi wymaganiami graficznymi można powiedzieć pozostaje gra Far Cry (firmy Crytek, twórcy późniejszego nieuzasadnionego Crysisa) - czy chociażby Half-Life 2 - która słusznie została okrzyknięta grą FPP wszechczasów.

Już wielokrotnie udowadniano, że kod da się dobrze zoptymalizować - i co lepsi twórcy gier jednak czasem optymalizują swoje kody - jednak tak, jak kiedyś było niehonorowe i bezgustowne nie optymalizowanie kodu - tak dzisiaj prawie nikomu nie chce się optymalizować kody - "no bo przecież mamy 2 lub 4 rdzenie cpu i miliardy tranzystorów karty grafiki".

Tak samo, jak nieuzasadnione było przejście na PCI-Express - ówczesny AGP (Akcelerowany Port Grafiki) działał bardzo dobrze - po prostu tworzyło się kolejne wersje AGP - które były zgodne "wstecz". Ale znowu twórcy płyt głównych wmówili Nam, że konieczne jest zaprojektowanie nowego standardu PCI-E - bo AGP jest zbyt wolny.

Jestem ciekaw, skoro PCI-E było tak konieczne, dlaczego wraz z nowymi płytami głównymi nie opracowano nowego standardu, zamiast USB 2.0. Ależ byłoby oburzenie - od razu odsądzano by od czci i wiary - że inny standard zablokowałby dobrze prosperujący biznes. Ale ponieważ użytkowników kart graficznych jest o wiele mniej, niż użytkowników standardu USB - więc zmusimy wszystkich chętnych do zakupu nowej karty graficznej do kolejnej zmiany sprzętu - i tak wymienia się co chwila standard RAM, nowe podstawki pod cpu, (Intelu, przesadzasz! Co półtora roku nowa podstawka, do której już nowe procesory nie pasują...).

Sami twórcy sprzętu komputerowego strzelili sobie w stopę. Ludzie, którzy nie myślą nad swoją przyszłością! Wiele firm już nie produkuje gier na PC albo wycofuje się z tego rynku - bo co chwila wchodzi nowy, niekompatybilny i pełen problemów sprzęt - a pisząc grę pod konkretną konsolę - programiści piszą dobry, niemal bezproblemowy produkt. Dlaczego kiedyś okaże się, że zbytnia pazerność i niepohamowana chęć zysku będzie przyczyną docelowego zmniejszenia zysków części tego segmentu IT? To proste. Ludzie się już obecnie bardzo zmęczyli nieustannymi problemami z niekompatybilnością ("a Twoja karta nie obsługuje DirectX 11 a moja tak i ja sobie pogram, a Ty nie"), błędami itd. Co się stanie, kiedy w końcu firmy niemal w ogóle zrezygnują z tworzenia gier na PC? Ano, zastój na tym rynku - po co bowiem kupować nowe komputery, po co zwiększać ilość RAM? Po co nowe procesory? Tylko gry komputerowe wymuszały aż taki postęp w dziedzinie PC. I co 3-6 lat system Windows. Z tym, że za przemyślanym, kontrolowanym i rozsądnym rozwojem to myślę każdy z Nas jest na "tak".

Jeśli użytkownicy coraz mniej będą mieli ochotę na kupowanie co rok nowej karty grafiki a do tego nowego komputera, który pożera gigantyczne ilości Watt - bo nikomu nie chciało się optymalizować gier (a producenci kart grafiki zacierają ręce) - sprzęt, jak i zużycie energii oraz wszystko dookoła wydaje się być nieuzasadnione - klienci w końcu coraz bardziej porzucą ten segment i przeniosą się na konsole do gier, co już ma pomału miejsce. Co to oznacza dla producentów RAM, CPU, Motherboards, podzespołów dla powyższych (układów scalonych, mostków, oporników, kondensatorów, cyny, złota, styków, etc)? Oczywiście zmniejszenie sprzedaży - czyli zwolnienia z pracy ludzi, zmniejszenie konsumpcji energii i ograniczanie produkcji części zakładów, bo rynek się nasyci - tak więc zbyt ekspansywny i nieuzasadniony rozwój długofalowo będzie jak walenie głową w ścianę po dużej dawce alkoholu - co prawda teraz nie czujemy bólu, ale rano będziemy przeklinać ostatni kieliszek.

Niech Czytelnik mi uwierzy - jako młody człowiek uwielbiałem "grzebać w sprzęcie" - i gdybym poszedł dalej w tym kierunku, pewnie pozostałbym dobrej klasy overclockerem. Porzuciłem jednak to dla innych, ważniejszych rzeczy. Prawda jest taka, że jeśli jesteś overclockerem - to owszem, badanie możliwości sprzętu, gier, benchmarków - jest pożyteczne, jest frajdą. Ale dla przeciętnego użytkownika/gracza po kilku latach intensywnego zajmowania się tym tematem jest zbyt uciążliwe. Nie myślmy tutaj kategoriami szefów i redaktorów czasopism gier video - bo oni z tego żyją! Żyją z reklamowania i opisywania "wspaniałych, nowych gier" - musisz tylko co pół roku albo co rok wydać 4 tysiące złotych (skromnie!) na nowy komputer. Kiedyś tak nie było. I właśnie kiedyś było lepsze. Nie dlatego, że byłem wtedy młody i nie dostrzegałem problemów - a dlatego, że był Microsoft-Intel-Amd (czyli "tatusiowie"), potem producenci sprzętu (czyli "mamusie"), potem developerzy gier video (czyli "dzieci") - utrzymywanie tej konfiguracji i uzasadnione wdrażanie DirectX (które spokojnie mogło jeszcze zostać na DirectX 9 - a mamy już 11, tymczasem jeszcze programiści nie potrafią dobrze wykorzystać potencjału numeru 9!). Później zaczęto brutalnie pozbywać się konkurencji, wdrażanie swoich standardów na siłę - wykończenie konkurencji ustawiło branżę IT na grzędzie lenistwa - pozostały 2-3 ośrodki, które zbyt szybko chciały się dostać do Naszych kieszeni. W coraz bardziej marketingowe opakowania zaczęto oprawiać byle co - czego efektem jest:

  • że dzisiejsze fabuły gier są w większości przeznaczone dla tępaków
  • gdyby programiści dobrze programowali gry (optymalizacja i grafika) - to w Crysisa moglibyśmy na przyzwoitych detalach zagrać komputerem z 2005 roku
  • nie wyszedłby Windows Vista, tylko od razu Win 7
  • PC mógłby dalej konkurować z konsolami, ponieważ dłuższa żywotność sprzętu pozwalałaby na wyrównanie szans
  • Układy graficzne na PC są kilku(nastokrotnie) mocniejsze od przeciętnej konsoli do gier video (Playstation, X-Box) - a grafika działa płynnie na konsoli, na PC nie i ciągle są problemy z tego powodu
  • Zaistniało zagrożenie zahamowania rozwoju rynku PC - co odczują kiedyś wszyscy producenci sprzętu do PC (od zasilaczy po obudowy)
  • Zamiast obniżać ceny sprzętu PC - ceny komputerów i większości podzespołów rosną w ogromnym tempie - tym bardziej w kryzysie - moim zdaniem, jeśli widzę, że cena zestawu komputerowego wartości około 1500 złotych wzrosła o 300 zł (!!!) w ciągu pół roku - to pozostaje tylko jedno wyjaśnienie. Kryzys przystopował tylko na chwilę - i wiedzą o tym wszyscy, dlatego jeszcze ostatnim rzutem na taśmę każdy sprzedaje to, co się da, żeby zarobić na "chude lata". Drugą kwestią jest, że polscy pośrednicy windują niebotyczne ceny - sprzęt elektroniczny w Królestwie Niderlandów, Niemczech, USA jest po prostu tani w stosunku do ich zarobków. W Polsce niemal wszystko jest strasznie drogie - od usług bankowych, przez internet, GSM, hardware i software, itd. No bo jeśli przeciętny Niemiec czy Amerykanin za przeciętną wypłatę może sobie kupić 10-15 legalnych kopii np. Windows 7 - a w Polsce cena sięga 400 zł - co przy średniej 1800-200 zł wynosi ledwie 5 kopii?

Karty grafiki. W tym segmencie rynku jest dokładnie taki sam bajzel, jak w pozostałych - zwiększanie ilości tranzystorów przy braku optymalizacji sprzętu i kodu doprowadziło do dzisiejszej sytuacji. Kiedy ja kupowałem moją Riva 128 co mniej więcej rok - do 1,5 roku wprowadzano nowy układ graficzny. To niby tak, jak dzisiaj. Jednak jest znacząca różnica. Kiedy wprowadzano nowe układy graficzne (poczynając od rewelacyjnego skoku układu Voodoo firmy 3dfx, która zniknęła z rynku a jeszcze wcześniej układu Virge firmy S3, który miał jako pierwszy filtrowanie textur) faktycznie ich jakość podwajała się - zarówno wprowadzanie nowych możliwości graficznych i zaawansowania była tworzona odrobinę "na wyrost". Dzisiaj układy graficzne i tempo ich wdrażania jest tak oszałamiające i bezsensowne (średnio co 9 miesięcy nowy układ graficzny) - ich mylące i wprowadzające w błąd nazewnictwa skutecznie utrudniały i do dzisiaj utrudniają dobry wybór karty grafiki. Na rynku pozostała Nvidia i Ati - dwaj potentaci, z których zawsze byłem zwolennikiem (przynajmniej na początku) Nvidia - oczywiście nie dawałem się wciągnąć w suche polemiki "a bo moja firma robi lepsze i szybsze karty" - tak samo jak Intel zawsze był (do pewnego momentu) lepszy od AMD tak Nvidia była niemal zawsze (też do pewnego momentu) lepsza od Ati. A wynikało z prostej przyczyny: tak jak procesory Intela nie sprawiały kłopotów w Windows i niektórych programach - tak do pewnego momentu procesory AMD (nie mówiąc o zapomnianych Cyrix'ach) miały same problemy - przegrzewały się, były kruche, po prostu bardziej kłopotliwe dla użytkownika - chociaż tańsze. Tak samo NVidia vs Ati - Nvidia miała nieco gorszą jakość grafiki (minimalną, choć zauważalną) - tak Ati zawsze było wolniejsze, bardziej kłopotliwe - gry nie chciały się uruchamiać, trzeba było nieustannie czekać na patche do gier, sterowników do programów. Dzisiaj Ati przegoniło Nvidię jeśli chodzi o pobór mocy i szybkość układów graficznych. AMD nie tylko, że wprowadza co rok idiotycznej zmiany podstawek pod nowe procesory jak Intel - przez to jest wiarygodniejszym partnerem i producentem - ale do starych płyt głównych właśnie przez to można wkładać nowe procesory. Intel natomiast ciągle zachowuje się jak monopolista i ciągle popełnia te same błędy: nowy procesor to prawie na pewno nowa podstawka - a to wymaga zmiany płyty głównej, lub zakupienia przejściówki (o ile takowe istnieją). I znowu powraca tutaj sprawa niepisanych umów: wy robicie nowy procesor i podstawkę, my nowe płyty główne, chipsety - i tak kołowrotek się kręci. Społeczeństwo jednak robi się tym coraz bardziej zmęczone - a spirala sztucznego marketingu wmawia Nam, ilu to jest użytkowników zachwyconych taką polityką.

Mniejsi gracze na rynku (S3, Matrox) zostali "zjedzeni na śniadanie" - powstała hegemonia 2 koncernów graficznych: Ati i Nvidia. Dla Nas, klientów byłoby lepiej, aby graczy na tym rynku było co najmniej trzech - a nawet czterech. Wtedy znowu firmy zaczęłyby pracować NIE nad ilością upakowanych tranzystorów w układzie - a nad optymalizacją tego co już mamy - w efekcie otrzymywalibyśmy karty graficzne, które pobierałyby mniej prądu a były bardziej wydajne. Dzisiejsze dwu- a nawet trzy-slotowe potwory straszą z komputera wielkimi radiatorami i systemami wodnymi, które ledwo radzą sobie z odprowadzaniem ciepła. Nvidia tak się zapędziła w kozi róg w układach graficznych, że jej ostatni produkt kodowy "Fermi" przysporzył jej wiele problemów - firma dostarczająca bowiem układy krzemowe, nie umiała poradzić sobie z technologią, czego skutkiem był fakt otrzymywania z jednego "wafla" krzemu tylko jednego lub dwóch procesorów. W efekcie dzisiaj mamy tylko namiastkę wspaniałych "bitew" branżowych sprzed lat: firmy udają, że wypuszczają nowe układy (chociaż są tylko lekkimi ulepszeniami nic nie wnoszącymi), redaktorzy branży benchmark i gier udają, że "oto nadchodzi nowy król", chociaż doskonale wiedzą, że "nowy" układ ma tylko kilka milionów tranzystorów więcej, pożera więcej prądu i jest tylko starą kartą w nowym opakowaniu, klienci udają, że oto właśnie zauważyli skok jakości o...3-4 klatki na sekundę.

Kiedyś naprawdę poprawiano grafikę - gdyby tempo rozwoju jakości grafiki rosło tak samo jak kiedyś - dzisiaj mielibyśmy grafikę w grach komputerowych bardzo zbliżoną do rzeczywistości - nie tylko, że nie ma żadnych istotnych innowacji od momentu wprowadzenia GeForce (FSAA i parę sztuczek z wygładzaniem to "nowości" dla małolatów") - ostatnimi ważnymi innowacjami były obliczenia Geometryczne (od geforce, czyli pixel i texel), bump-mapping, antyaliasing i wprowadzenie Shader Model (czyli shaderów). I to wszystko - wszystko co wprowadzono po DirectX 9.0c jest tylko wydmuszką i "bajerem".

A jak śmieszą mnie zdjęcia i artykuły porównujące jakieś drobne pixele: "widzicie? w lewym górnym rogu włosa postaci włos rzuca taki mały cień - oto innowacja" - prawdziwe innowacje to te, które jest w stanie zauważyć użytkownik - reszta innowacji (może oprócz Z-bufora) jest jedną wielką marketingową ściemą.

Próba wciskania mi nieruchomych zdjęć i pokazywania, że różnice pomiędzy DirectX 10 i 11 są istotne - budzą we mnie śmiech politowania. Gry są dynamiczne i tylko istotne zmiany zawsze są zauważalne. Czas i innowacje zatrzymały się 4 lata temu - a tak faktycznie to jeszcze wcześniej.

Blokowanie uruchamiania nowych gier na tylko nieco starszych układach ("Twoja karta nie obsługuje DirectX 150. Idź i kup nową za trzy tysiące, bo nie chciało się Nam optymalizować kodu, więc zablokowaliśmy możliwość uruchomienia gry na karcie sprzed zaledwie roku. I tak jesteś idiotą, więc kupisz) jest wyrazem nieudacznictwa, lenistwa i pazerności.

Ta krótkowzroczność będzie jeszcze długo wykorzystywana, ponieważ wchodzą ciągle nowe generacje dzieci i młodzieży, która daje się nabierać na te same hasła. Jedni podniecają drugich: "wow, wyszedł nowy procesor graficzny - teraz w rozdzielczości 8000x8000 będziesz miał półtorej klatki na sekundę więcej".

I co to za nowe karty graficzne, jeśli w niższych rozdzielczościach zadławiają komputer?

Pewnie usłyszę, że narzekam. Że taki jest duch postępu. Prawda jest jednak taka, że cała branża IT ze swoich dawnych ideałów zdrowej (a czasem mniej zdrowej) konkurencji, z chęci honorowego wynalezienia czegoś lepszego ("oni zrobili układ lepiej, ale my następny zrobimy jeszcze lepszy - oni zrobili dobry program, ale my zrobimy lepszy) - została wydmuszką.

Chęć dominacji i posiadania palmy pierwszeństwa, chęć ulepszania - była stymulatorem i motorem - zysk zaś był efektem ubocznym rozwoju IT. Ktoś powie: co za bzdura - przecież firmy zawsze tylko chciały zarabiać, zarabiać i jeszcze raz zarabiać. Nigdy nie patrzyły na dobro użytkownika - tylko na własne kieszenie. Ja się z tym zgodzę - tylko, że balans pomiędzy jakością, produktem, ceną, efektem końcowym dla użytkownika - był mniej więcej regulowany przez: jakiegoś poziomu przyzwoitość branży, młodzieńczy zapał i chęć zdrowej rywalizacji (szefowie ówczesnych firm to byli wówczas młodzi ludzie z ideałami).

Krytykuje się Billa Gates'a i Steve'a Jobs'a mówiąc, że Windows to był gniot, że się zawieszał i był przereklamowany. Krytykuje się Jobsa mówiąc, że On by nawet zrobił konferencję na temat zwykłej zapalniczki wmawiając, że jest to przełomowy wynalazek.

Prawda jest taka, że Billowi Gates'owi zawdzięczamy nieprawdopodobny skok technologii, software (co nie oznacza, że nie śmieszyły mnie i dalej nie śmieszy Windows, który dopiero w wersji 7 zawiera to, co ja już wymyśliłem pracując przy Windows 95). Windows 95, 98, XP zawierał wiele idiotyzmów - aż śmiechem się zanosiłem, że dopiero w kolejnych wersjach wdrażano oczywiste rozwiązania.

Jednak to Gates i Microsoft wywindował i rozkręcił branżę IT i należy chylić mu czoła. Jednak to od 6-7 lat tylko Steve Jobs wprowadził prawdziwe innowacje jak IPhone, IPad dotykowy, IPod. Reszta to wtórne kopie ich pomysłów.

Teraz znów czekamy na jakiś przełom. Może jakiś nowy standard? Dyski SSD (solid-state drive) są jeszcze bardzo drogie w stosunku do niewielkiej pojemności, technologia Wi-Max nie przyjęła się (z co najmniej dwóch powodów). Jedynie PC stoi w miejscu: nadal olbrzymie obudowy, olbrzymie podzespoły. Co prawda są próby wprowadzenia mini PC (z płytami ITX) wielkości połowy kartonu po butach, ale są jeszcze mało wydajne (chociaż oparte na świetnym procesorze Atom).

 

Kiedy możemy spodziewać się realnego skoku szybkości i jakości branży IT?

 

Jeśli chodzi o PC, w kartach grafiki tkwi olbrzymia, niewykorzystana moc. Twórcy oprogramowania i sami twórcy kart grafiki już kilka lat temu przebąkiwali o tym, że czas, aby karty grafiki w trybie 2D (czyli na pulpicie systemu) zaprząc do pracy - ich potężne procesory i pamięć ram mogłaby skutecznie być wykorzystana.

Jednak producenci procesorów panicznie boją się takiego rozwiązania - bo ktoś w końcu mógłby wpaść na pomysł: "a po co ja mam korzystać z procesora Intela lub AMD - skoro wystarczy wykorzystać moc karty grafiki". Powiem więcej, ktoś mógłby wpaść na "bezczelny" pomysł, aby spróbować zbudować płytę główną, która będzie korzystała zamiast CPU z procesora karty grafiki. Albo, co bardziej ciekawe, ktoś wyjmie GPU i testowo wlutuje go zamiast CPU - lub zrobi software, który poszczególne obliczenia będzie wysyłał do GPU - wtedy już nie będzie odwrotu. A ja myślę, że ktoś to w końcu zrobi. A to będzie heca!. Na razie jeszcze się w tej sprawie dogadano, jeszcze się wstrzymują. Czyli wykorzystanie obecnego potencjału 64-bitów i kart graficznych.

I to będzie (1) pierwszy krok do nowego rozdziału PC a co za tym idzie, znacznego segmentu branży IT - powstaną mocne komputery PC wielkości książki - bo będą w nich zainstalowane potężne i dopracowane procesory grafiki, dyski SSD, nowe standardy jak USB 3.0 i inne.
 

Drugim (2) krokiem będzie wynalezienie przełomowej technologii, która odmieni oblicze IT - nie wiemy jaka to technologia, bo jej jeszcze nie ma. Dopóki ktoś nie wpadnie na prosty-genialny pomysł wszyscy zawsze kręcili nosami. Branży IT (zresztą każdej branży) przydaje się raz na 10 lat mocny przewrót i kopniak, bo robi się zabetonowana, pomimo pozoru rozwoju. Było wiele niby-rewelacyjnych technologii (jak chociażby już w 1996 roku wynaleziono tranzystory ultrafioletowe, które były co najmniej 4-krotnie szybsze - i co? po 15 latach technologii tej nie ma, pewnie z powodu kosztów). Kiedy procesory zbliżyły się do progu swojej wytrzymałości technologicznej, czyli 32 nm procesu technologicznego i około 4 Ghz taktowania procesora - wydawało się, że nic nie uratuje tej branży - a jednak. Proste rozwiązanie jak zwielokrotnienie rdzeni procesora znowu zaczęło zabawę od nowa - teraz mamy 2-4-6 rdzeni w procesorze, których ani systemy ani gry ani programy komputerowe nie wykorzystują z małymi wyjątkami. Zwiększenie wydajności następuje, owszem, przy zastosowaniu najszybszych dysków SSD, najnowszych chipsetów płyt głównych. Tak samo jak niewykorzystane 64-bitowe systemy - już od kilku lat istnieją - a nikt ani nie wprowadził usprawnień, aby z nich korzystać. Może taki jest właśnie plan? Może mają leżeć odłogiem, a kiedy ten segment branży IT dojdzie do progu, wtedy leniwy Microsoft i jeszcze bardziej leniwi programiści w końcu będą zmuszeni do napisania dobrych kodów programów, które faktycznie wykażą korzyść z wielordzeniowości i 64-bitowości? I to jest właśnie owa dodatkowa różnica: dzisiaj nie robi się czegoś pomimo - a czeka się na dojście do bariery i potem się tworzy nowe technologie. Kiedyś właśnie dlatego tak szybko przyrastał rozwój IT - ponieważ ciągle w laboratoriach opracowywano dobre, szybsze, lepsze technologie.

Dzisiaj owe szybsze i lepsze technologie mamy w swoich komputerach - tylko po co mi one, skoro są marginalnie wykorzystane? Po co mi nowy chipset, nowy 6-rdzeniowy procesor, nowa karta grafiki, więcej ramu, nowy system 64-bitowy, nowy prądożerny zasilacz - skoro mój komputer sprzed roku czy dwóch ma ciągle niewykorzystany potencjał. Coraz bardziej niedopracowane programy, szumnie podobno wykorzystujące wielordzeniowość w testach okazują się 5-10 % szybsze od pojedynczych! Ja na moim starym, już nie istniejącym Pentum II 300 Mhz uruchomiłem UNREAL-a - a w gry, które ukazały się długo po zakupie komputera mogłem spokojnie grać - i one były lepsze graficznie tyle, że były optymalizowane.

Dzisiaj gra zajmuje nieuzasadnione 2-3 płyty DVD - czasem po 30 GB zainstalowane na dysku komputera - tylko co tyle zajmuje? Ścieżka dźwiękowa w mp3? Nie...koniecznie nowy, dziwny format. Czy może tekstury? Tak - koniecznie nieskompresowane, żeby przy detalach na High i Ultra nie było widać różnicy. A może renderingi filmowe pomiędzy levelami? TAK - koniecznie nieskompresowane, lub skompresowane dziwnymi kodekami - żeby to samo, co zakodowane w XVID lub DIVX zajmowało 10 razy więcej. Bo przecież jakoś gra, która zajmuje 15 godzin grania i gracz może ukończyć ją w dwa dni musi kosztować 200 złotych! A gdyby tak gra zajmowała niecały DVD? Toż klienci gotowi pomyśleć, że "za co oni płacą"?

Napakowane sianem programy, które zajmowały 20 mb - stały się pół gigabajtowymi molochami, z których każdy musi KONIECZNIE mieć Media Center - i tych media center mamy po pięć w pasku zadań - bo każdy program chce być tym używanym i najważniejszym.

Dzisiejsza branża IT dziedziny PC, software i hardware przypomina hamburgera, z którego na siłę zrobiono tortillę i kebab w jednym. Ani to smakuje, ani wygląda, ani to poręczne. Jeśli zamawiam hamburgera, to chcę poczuć jego smak. A jak tortillę, to chcę tortillę.

Microsoft przez lata zachowywał się jak rozkapryszone dziecko i nie mógł zrozumieć, dlaczego ludzie nienawidzą Internet Explorera, który zmuszał ludzi do używania samego siebie - bo nic innego nie było. Jednak Firefox i Opera otrzeźwiły obecnego szefa firmy Steve'a Ballmera i tworzony jest nowy IE. Firefox zgarnęła już połowę rynku w tej branży. I bardzo dobrze. Zawsze jest najlepiej, kiedy sami klienci dają odczuć gigantom, że to od nich zależy wybór. I co ciekawe, nawet wprowadzenie nowego IE nie przekona wiernych użytkowników.

Kiedy bowiem wierni użytkownicy porzucają swój ulubiony program? Kiedy twórcom danego programu woda sodowa uderza do głowy. Kiedy zaczynają napakowywać do ulubionego programu niepotrzebnych bzdur, nie wynikających z faktycznych potrzeb. Program zaczyna się rozrastać, zaczyna wolniej działać. Wtedy użytkownicy szukają alternatywy. Taka alternatywa czeka system Windows. Ktoś w końcu się kiedyś odważy zrobić system w miarę dobry i alternatywny do celowo debilnego Linuxa (TAK, dobrze słyszeliście - Linux to najbardziej przeciwstawny użytkownikowi system - ja bardzo szanuję Linuxa jako system i jego użytkowników - jednak jego szefowie, a raczej szefowie dystrybucji z jakichś powodów celowo nie wprowadzają takiej dystrybucji, która będzie prosta w obsłudze, która da alternatywę wyboru - można się tylko domyślać, dlaczego przez niemal 20 lat nie przystosowano Linuxa przyjaznego użytkownikowi).

A więc przełomowa technologia!

A (3) trzecim krokiem w IT będzie wprowadzenie WEB 3.0.  I to właśnie coś podobnego do mojej wizji. Oczywiście IT nie jest trwałe i sztywne, dlatego za parę miesięcy lub lat nowe technologie jeszcze tylko rozszerzą mój WEB 3.0 o owe technologie. Z zastrzeżeniem, że jeśli nie zdarzy się żadna przełomowa technologia, która wykluczy istnienie mojego WEB 3.0 - jestem przekonany, że nie dalej niż za 20 lat (jeśli IT pójdzie nadal w podobnym kierunku) to ktoś w końcu wymyśli takie uproszczenie i kontakt z technologią, jaką ja proponuję. Jasnym jest, że nikt nigdy nie powtarza tej samej ścieżki - dlatego też najważniejszą konkluzją mojego Web 3.0 jest, że skonsoliduje, zepnie, scali technologie w służbie człowiekowi. Przecież Web 3.0 to nie tylko technologia obórki informacji internetowych - to również technologia <poza> komputerem a która umożliwia <łączenie> się z web.