Menu serwera

Użytkowy aspekt elektroniki

Sporo ostatnio czytam o postępującej rywalizacji producentów elektroniki tworzących te wszystkie telefony, tablety i co tam jeszcze innego chcących wprowadzić pod nasze strzechy (WebOS od Hewlett Packard na komputerze stacjonarnym spodobał mi się szczególnie – fajny pomysł!). Tak czytam i czytam i się zastanawiać zaczynam, czy to wszystko idzie w aby dobrym kierunku. Bo im więcej czytam, tym bardziej widzę coś, co swego czasu odgoniło mnie od klasycznego PC i kazało przejść na konsolową stronę mocy a od jakiegoś czasu kazało też nieco innym spojrzeniem cały ten elektroniczny galimatias ogarniać.

Chodzi o stosunek ceny nie do możliwości a do użyteczności.

Dualcorowe procesory w telefonach. Yupiiii! Będzie wszystko szybsze, sprawniejsze i w ogóle odjechane. Dualcorowe procesory w tabletach i układy graficzne zawstydzające ten z mojego biurkowego komputera. Yupikajej! Super! Nie dość, że będzie szybciej, to jeszcze do tego bardziej wygładzone i generalnie fajniejsze w oglądaniu. Świetnie. Mam tylko jedno pytanie: czy to aby polepszy użyteczność aplikacji, jakie na te coraz to szybsze urządzenia powstają? Czy urządzenia mobilne dopadnie ta sama zmora, która swego czasu odrzuciła mnie od PC?

Chodzi mi o wydajnościowy wyścig zbrojeń, którego ofiarą pada niestety zazwyczaj optymalizacja kodu i odpowiednie zaprojektowanie aplikacji. Już dziś na urządzenia mobilne powstaje setki aplikacji dziennie ale tych dobrych, tych dobrze zaprojektowanych, dobrze zoptamalizowanych, nie wymagających kupna nowego urządzenia by cieszyć się ich wszystkimi możliwościami jest stosunkowo niewiele. Na co dzień używam iPada i telefonu z Androidem i okazuje się, że na obydwu platformach jest podobnie – dobre w sensie użyteczne i pracujące jak trzeba aplikacje to drobny procent całej oferty dostępnej na te urządzenia (mam wreżenie, że wręcz promil). Ściągam i uruchamiam dziennie przynajmniej kilka nowych programów by ogromnie rzadko stwierdzić, że chociaż jeden z nich jest do czegoś przydatny i wart zostawienia w mojej bibliotece oprogramowania. Czemu tak się dzieje?

Swego czasu byłem zapalonym graczem kupującycm i ściągającym gry na swojego peceta na pęczki (tak, kiedyś człowiek miał czas na te rzeczy). O ile w czasach pierwszych procesorów pentium jeszcze dało się z jedną konfiguracją PC wytrzymać dosyć długo, o tyle z czasem gry zaczęły dyktować konfigurację sprzętową mojego komputera. Po drugim czy trzecim upgrade karty graficznej w komputerze i to w ciągu jednego roku coś mi się w głowie zapaliło i mam tak do dziś – za co ja faktycznie płacę? Za dwa-trzy przełomy na rynku gier, na które warto wydać pieniądze na hardware czy też za niekompetencję i pośpiech te gry tworzących, którym nie chce się optymalizować i dopracowywać kodu? Wersja spiskowa obejmowała też zmowę twórców gier z twórcami hardware i wzajemne napędzanie sprzedaży jedni drugim (w sumie teorii trzymam się do dziś :))… Im dłużej ten rynek obserwuję, tym bardziej się w stanowisku niekompetencji twórców oprogramowania utwierdzam.

Jakoś wtedy zerknąłem łaskawszym okiem na konsole i zanabyłem swoją pierwszą: PSX od Sony. Tu sytuacja była diametralnie inna: jedna architektura sprzętowa, na której twórcy musieli konkurować swoimi umiejętnościami, optymalizacją, pomysłami obejścia ograniczeń sprzętowych itd. Kiedy pokazywała się gra, która wśród redaktorów pisemek wszelakich wywoływała okrzyk „wow!” wiadomo było, że powinna wywołać taki okrzyk i u mnie. Bo będę widział to samo co oni, działające z taką samą szybkością i grać będę na takim samym lub bardzo podobnym kontrolerze. To były moim skromnym zdaniem złote czasy elektronicznej rozrywki. Twórcy gier mogli latami pieścić swoje silniki i wyciskać z urządzeń ile się tylko dało z samego prostego faktu cyklu życia produktu o nazwie „konsola”. Brak wszędobylskiego internetu skutkował tym, że produkt wysyłany do tłoczenia był przetestowany na wszystkie możliwe sposoby, zoptymalizowany jak tylko można było, sprawdzony jak tylko się dało i przemyślany oraz zaprojektowany był raz i musiał być to projekt dobry. Inaczej na półki sklepowe trafiała partia tysięcy płyt, które gdyby zgarnęły złe noty w prasie po prostu by na tych półkach zostały. Dziś walniętą grę zawsze można poprawić jakimś patchem (bardzo ubawiło mnie ssanie przez mojego brackiego ton updatów i poprawek do Wiedźmina, po których i tak to zdaje się kulawo działało) a mający tupet producenci potrafią do patcha dorzucić kilka nowinek i jeszcze rządać za to kasy, zwąc taką paczkę DLC czy jak tam jeszcze. Kiedyś robiono grę jako zamkniętą całość i zapewniano godziny rozrywki bo gdyby tych godzin nie było, mało kto by ową grę kupił. Dziś w ramach podstawki (drogiej tak samo jak kiedyś pełne gry o ile nie droższej) dostaje się kilka godzin mieszania a później trzeba dopłacać by coś jeszcze ewentualnie z tytułu wycisnąć. Ja już nawet nie tworzę teorii spiskowych – to jest po prostu spisek i skok na nasze portfele, z którym w sumie nie wiadomo co zrobić bo grać przecież lubimy.

Konsole skręciły w ten pecetowy trend ciągłego patchowania i płatnego rozszerzania możliwości gier i pozwoliły twórcom na znaczne skrócenie czasu przygotowania produktu do wypuszczenia na rynek. Niestety odbija się to dosyć często na jakości tytułów. Tyle dobrego, że jeszcze nie wymyślono jak wymieniać podzespoły bez potrzeby kupna całej nowej konsoli acz wprowadzenie do konsol dysku twardego uważam za koniec złotej ery konsolowego szpilania.

Jak to się ma do urządzeń mobilnych, o których wspomniałem na początku? Myślę, że dokładnie tak samo. Oto bowiem mamy z gruntu zamknięte konstrukcje (jak konsole do gier), w których architektura jest ustalona a czas życia produktu jest błyskawicznie krótki w stosunku do czasu życia konsoli. Problem w tym, że co i rusz na rynku pokazują się coraz to nowsze urządzenia, w które wsadzane są coraz to nowsze i mocniejsze podzespoły, coraz to więcej pikseli mające ekrany, coraz to bardziej HD kamery… Zastanawiam się, któremu producentowi oprogramowania chce się ponosić wydatki na optymalizację poza tymi niezbędnymi na zapewnienie minimum wstecznej kompatybilności z coraz to nowszymi wersjami systemów operacyjnych i architekturami sprzętowymi sprzed roku. Efekt jest taki, że programy pisane są szybko, na bieżąco a dostosowywanie ich do aktualnego hardware to często jedyne ich zmartwienie.

Widzę to w bardzo wielu programach dostosowywanych z iPhone na iPada. Soft pierwotnie obmyślany dla telefonu i dla jego wielkości ekranu bardzo często okazuje się być marnie przeniesiony na większy ekran. Widać brak skupienia się na interfejsie, na stworzeniu sensownej nawigacji po programie, na wykorzystaniu większej powierzchni na lepszą ergonomię rozłożenia elementów interfejsu. Widać po prostu pośpiech w uaktualnianiu aplikacji do nowszego urządzenia. Nie mam wątpliwości, że podobnie będzie z tabletami napędzanymi Androidem…

Bardzo wiele z programów, które mam w swoich „the best of the best” to soft, który działa na iPadzie, na iPhonie 3G i na moim stareńkim iPodzie touch pierwszej generacji. To w większości produkty doświadczonych programistów, którzy dbają o użytkownika nie pozostawiając go samemu sobie nawet po teoretycznym zgonie jego platformy. To programy, w których dba się o ich dostosowanie do każdej kolejnej platformy sprzętowej głównie od strony użyteczności tych programów. iPhone 4 i iPad to w sumie bardzo podobne platformy i nawet rozdzielczości ekranów są zbliżone ale ich wielkości już nie a to bardzo ale to bardzo rzutuje na użyteczność programu z odpowiednio zaprojektowanym interfejsem.

Niestety takiego softu w AppStore jest stosunkowo niewiele a ja zaczynam się zastanawiać jak to będzie w przypadku Androida, gdzie już teraz mnogość rozdzielczości i wielkości ekranów jest ogromna. Zaczynam się zastanawiać, czy w ogóle warto wiązać się z platformą, która fakt rozrasta się w niesamowitym tempie ale którą w końcu zaczną trapić problemy znanego z pecetów wyścigu hardwarowych zbrojeń. Bo do tego dojdzie a właściwie już dochodzi. Będziemy mieli coraz to bardziej dopakowane sprzętowo tablety i telefony i oprogramowanie, które być może nie będzie w stanie nadążyć za tymi wszystkimi zmianami a w konsekwencji będzie pisane szybko i bez oglądania się na takie „drobiazgi” jak optymalizacja i – przede wszystkim – odpowiednie zaprojektowanie aplikacji, jej interfejsu i funkcjonalności.

Te wszystkie nowe smatrfony i tablety kosztują. I to niemało. Jak na sprzęt oferujący bardziej wygodę w konsumpcji treści i mediów niż owych treści tworzeniu – ceny wyższe niż sensownych netbooków czy nawet laptopów są po prostu za wysokie na to, by pojawiały się na nich nieprzemyślane, niezoptymalizowane i źle zaprojektowane aplikacje. Na razie (przynajmniej na iPadzie) nie jest bardzo źle ale też nie jest najlepiej. Jest sporo oprogramowania ale to nie znaczy, że ma się za bardzo w czym wybierać. Rok po premierze platformy przychodzi druga wersja urządzenia mocno podbijająca wydajność i już teraz zaczyna się mówić, że może to być problem. Jedynkę kupiło kilkanaście milionów ludzi i pewnie deweloperzy nie pozostawią ich samym sobie ale fragmentacja platformy postępuje a z tego nic dobrego wyniknąć nie może. W androidowym świecie wygląda to pewnie jeszcze mniej ciekawie…

Dlatego między innymi zaczyna mnie mocno niepokoić optyka przyjęta w recenzjach nowości sprzętowych i kiedy czytam o iPadzie 2 czy nowych planowanych tabletach czy telefonach z Androidam zaczynam zadawać jedno pytanie z punktu widzenia użytkownika chyba najważniejsze: „no ale co z tego, że to jest takie szybkie?”. Aplikacje ładują się szybciej? Fajnie ale cóż stoi na przeszkodzie w takiej ich optymalizacji, by ładowały się równie szybko na starszych modelach? Mam na iPadzie programy do ToDo startujące błyskawicznie i oferujące więcej możliwości od niektórych ładujących się zauważalnie wolniej. Widać jak koder dobry to zrobi coś jak trzeba. Gry będą bardziej płynne i bardziej dopieszczone? Zapewne o to chodzi w całym tym elektronicznym przyspieszeniu ale tu znów pojawia się problem z pecetowieniem tych zabawek – wywalać kupę kasy na coś, co za rok będzie po prostu stare? Po co?

Podstawowym kryterium wyboru elektronicznej zabawki powinna być jej użyteczność. Jeśli mam do wyboru platformę ze sporą ilością dobrego oprogramowania spełniającego moje oczekiwania i będącego dla mnie użytecznym – biorę. Jeśli jedynym hasłem zakupowym ma być ilość megaherców, rdzeni procesora, ilości pamięci czy pojemności flasha a za tym nie będzie stało oprogramowanie cały ten luksus obsługujące – sorry panowie marketoidzi ale nie tędy droga. Już teraz tablety czy telefony są na tyle szybkie i sprawne, że mogą obsłużyć zdecydowaną większość zadań. Mam więc prośbę: zadbajcie o to, by oprogramowanie powstające na wasze zabawki było odpowiedniej jakości. Nie popełniajcie pecetowych błędów i nie stawiajcie hardware nad software nawet jeśli zajmujecie się tego hardware produkowaniem. Dywersyfikacja źródeł dochodu połączona z tworzeniem dobrych rozwiązań softwarowych dla waszych klientów – macie przepis na sukces.

, , , , ,

4 odpowiedź do Użytkowy aspekt elektroniki

  1. waltharius Kwiecień 7, 2011 o 13:56 #

    Dobrze prawisz. Ja mam cichą nadzieję (niczym nie popartą), że zwyczajnie stanie się tak, iż najlepsi programiści będą się reklamowali jako twórcy programów pod wszystkie możliwe wersje androida i większość urządzeń na których ten system siedzi oficjalnie. Dodatkowo zapewne google zacznie też trochę tutaj mieszać. Już zapowiedział, że nie będzie się zgadzał na tak drastyczne modyfikacje systemu przez producentów sprzętu jak to miało miejsce do tej pory. Ma to na celu ułatwienie i przyspieszenie aktualizacji Andorida na starszych maszynkach, które zostały porzucone przez producenta. To oczywiście nie rozwiązuje wszystkich problemów, ale problem jest zauważany i jakieś ruchy w kierunku jego naprawy są czynione.
    IMHO na razie absolutnie nie ma co traktować platformy z Androidem na pokładzie jako czegoś co się nadaje do „profesjonalnego” grania. Szkoda tylko, że ludzie tego sobie nie uświadamiają jeszcze i pędzą za tymi tegrami 2 itp. na złamanie karku.

    • CoSTa Kwiecień 8, 2011 o 17:06 #

      No właśnie. Mniejsza już o gry choć to jak się okazuje może być jednym z najważniejszych czynników wpływających na sprzedaż urządzenia. Mnie po prostu zaczyna ta wojna podzespołów mocno niepokoić. Wskutek czyjegoś źle pojmowanego marketingu szlag trafi sensownej jakości oprogramowanie. A szkoda by była wielka by problemy PC zaczęły trapić także konstrukcje tak zamknięte.

  2. xyz Kwiecień 9, 2011 o 16:23 #

    Z tych rozdzielczości na Androidy tak naprawdę liczą się tylko dwie 320×480 (w słabszych telefonach) i 480×800 (z wariacją 480×850, na której można przecież uruchomić tę samą wersję programu bez żadnej szkody, pal licho 50 pikseli). To, że jest kilka telefonów z innymi, nie znaczy że nie można ich zwyczajnie zaniedbać. No, jeszcze może w najbliższym czasie dojść jedna rozdzielczość do ekranów o ogromnym DPI. Ale i tak system radzi sobie ze skalowaniem treści do innych rozdzielczości.

    Znowu na tablety jest wersja 3.0, która dość mocno się różni.

Trackbacki/Pingbacki

  1. Sony – oblicze pewnej porażki… | CoSTa's Family Page - Kwiecień 27, 2011

    […] się w komputery z ciągłymi patchami i problemami (nieco więcej o tym napisałem we wpisie Użytkowy aspekt elektroniki). Jakaś epoka się skończyła a zaczęła się inna. Nie wiem, czy aby na pewno […]

Dodaj komentarz

Przeczytaj poprzedni wpis:
Jak nie urok, to sraczka

Wróciliśmy już na dobre do domu. Młody ma się z dnia na dzień coraz lepiej i widać po nim, że...

Zamknij