Internet do poprawki! Czekamy na Internet 2.0

Opublikowano: 01.12.2011 | Kategorie: Publicystyka, Świat komputerów

Liczba wyświetleń: 2

Jesteśmy przyzwyczajeni do tego, że Internet jest i działa. Ale czy działa dobrze? Moje pokolenie wychowało się w czasie pierwszych komputerów, które nie były podłączone do sieci. Wraz z dostępem do Internetu pojawiła się możliwość oglądania prostych stron internetowych, korzystania z poczty czy grup dyskusyjnych. Wszystko działało w miarę dobrze do czasu upowszechnienia się Internetu w postaci, jaką znamy od niecałej dekady.

Dziś Internet wykorzystuje się do wszystkiego. Niestety, pierwotne standardy i protokoły sieciowe, stworzone do prostych celów, obrosły w rozszerzenia, dostosowujące ich działanie do potrzeb współczesnego użytkownika. Internet, jaki znamy, jest więc z pozoru bardzo nowoczesny, ale u podstaw oparty o przestarzałe technologie. To dlatego mamy problemy ze spamem, wirusami, przeciążonymi serwerami czy dostępem do wybranych stron. I chociaż nie każdy z nas te problemy zauważa, to i tak wszyscy płacimy za ten stan rzeczy. Ponosimy przecież koszty utrzymania całej infrastruktury i godzimy się na ograniczenia, wynikające z konstrukcji sieci.

Strony internetowe to dziś mieszanka różnych technologii, starych i nowych. Wszystkie mają wspólny mianownik: są niedopracowane i nie w pełni wdrożone. Podmioty tworzące przeglądarki internetowe zrzeszone są w organizacji W3C, zajmującej się tworzeniem standardów internetowych. Te same firmy i organizacje tak skutecznie wprowadzają standardy do swoich programów, że jeszcze żaden nie został w pełni zaimplementowany.

Zanim przeglądarki internetowe otrzymały pełną obsługę HTML4, wprowadzono XHTML. Ale i XHTML-a nie w pełni zaimplementowano, ponieważ po kilku latach zarzucono pracę nad rozwojem tego języka, tworząc nowy język HTML5. W międzyczasie zaniechano prac nad wdrażaniem CSS2, zajmując się CSS3. W rezultacie współczesne przeglądarki obsługują tylko część rozwiązań, zawartych w wymienionych standardach i są między sobą niekompatybilne.

Twórcy stron internetowych muszą się mocno nagimnastykować, aby tworzona przez nich strona wyglądała i działała tak samo pod każdą z przeglądarek. Wiele rozwiązań jest zarzucanych z powodu fragmentarycznej obsługi po stronie użytkownika. Przykład? Praktycznie wszystkie współczesne przeglądarki przechodzą test Acid2 i Acid3 – zestaw skryptów, sprawdzający kompatybilność ze standardami W3C. Mimo to żadna z przeglądarek nie obsłuży tak prostej rzeczy, jak zmiana koloru czy wielkości elementu checkbox – podstawowego pola formularza HTML. Na cztery sprawdzone przeze mnie przeglądarki żadna tego nie obsługuje. Firefox i Chrome mają całkowicie pominiętą obsługę parametryzowania tego elementu, a Internet Explorer oraz Opera pozwalają tylko na dodanie obramowania (parametr “border”), przy czym nie działa to poprawnie, ponieważ w Operze obramowanie wchodzi do środka pola formularza, a w IE grubsza ramka wypełnia całe wnętrze elementu. Jeśli ktoś nie wierzy, może sprawdzić sam. Powstała nawet strona pokazująca, na jakim etapie są przeglądarki internetowe, jeśli chodzi o obsługę pola checkbox (link), wersje sprawdzonych tam programów są nieco starsze niż współczesne, ale zapewniam, że do dziś niewiele się zmieniło w tym temacie.

Mnogość standardów, które wciąż są w użyciu, powoduje, że przeglądarki pracują ociężale, ponieważ muszą obsługiwać wiele standardów jednocześnie. Współczesna przeglądarka musi być przygotowana na obsługę pięciu kolejnych wersji HTML plus XHTML oraz obsługiwać tzw. quirks mode (z ang. tryb dziwactw), czyli niepisany standard interpretowania kodu HTML, pochodzący z czasów, gdy strony tworzyło się bez zwracania uwagi na poprawność składni. W efekcie współczesne strony, te największe, działają ociężale na wolniejszych komputerach typu netbook. Na moim starszym laptopie, posiadającym procesor 1.8 GHz, nasze portale oraz serwisy społecznościowe wyświetlają się i przewijają bardzo wolno. Sama obsługa CSS, przy mocniejszym jego wykorzystaniu w kodzie strony, powoduje niepłynne przewijanie zawartości i powolne odrysowywanie się układu strony. Widać to wyraźnie na stronach z poradnikami CSS. Gdy dołączymy do tego obsługę JavaScriptu i Flasha, który potrafi zająć większość pracy procesora, okazuje się, że niektóre komputery stają się po prostu za wolne do korzystania ze współczesnego Internetu. Same przeglądarki z wersji na wersję wydają się być coraz gorzej zoptymalizowane, działają wolniej, potrzebują więcej pamięci niż kiedyś. Gdzie te czasy, gdy przeglądarka uruchamiała się w ułamek sekundy, a wciśnięcie “wstecz” powodowało błyskawiczne załadowanie poprzedniej strony?

AJAX to technologia, która w teorii odciąża Internet od ciągłego przeładowywania stron, poprzez doładowywanie treści na bieżąco. W praktyce powoduje, że obsługa stron działa wolniej. Można to sprawdzić samemu. Każdy z liczących się serwisów posiada wersję statyczną, uruchamianą przy detekcji przeglądarki, która ma wyłączoną obsługę JavaScriptu. Proponuję wyłączyć JS i wejść na taką stronę. Efekt – podstrony przeładowują się błyskawicznie. Przykład: statyczna wersja poczty Gmail. Przełączanie się między mailami trwa ułamek sekundy, podczas gdy w pełnej, AJAX-owej wersji Gmaila trwa to zauważalnie dłużej. Inny przykład to NK.pl. Tu również przy wyłączonym JS wszystko otwiera się błyskawicznie. Nie wszystko będzie działało, ale przeglądanie profilów i oglądanie zdjęć działa tak szybko, jak to tylko możliwe. Tam, gdzie AJAX powoduje przystopowanie ładowania treści, wersja statyczna daje nam natychmiastowy wynik.

Mimo wciąż rosnącej przepustowości łącz, same strony objętościowo ładują się coraz dłużej. Dlaczego? Dziś każda większa strona, oprócz prezentowania treści, łączy się z wieloma innymi serwerami, które doładowują skrypty do statystyk czy reklamy bannerowe, wydłużając czas ładowania strony. Pogoń za implementacją standardów spowodował, że typowa strona posiada więcej kodu HTML, CSS i JavaScript, niż treści, do prezentacji której została stworzona.

Aby powiązać domenę internetową ze stroną, należy przygotować serwer pod przyjęcie domeny i skonfigurować adresy DNS. Następuje wtedy propagacja domeny, proces trwający czterdzieści osiem godzin, w trakcie których serwery DNS z całego świata otrzymują informację o adresie nowej domeny. Gdy informacja dotrze do wszystkich serwerów, dopiero wtedy każdy użytkownik Internetu będzie mógł dostać się na naszą stronę. Proces ten jest technicznie skomplikowany, trwa bardzo długo i bywa awaryjny. Kilka tygodni temu propagowanie jednej z moich domen trwało tak długo, że użytkownicy niektórych sieci nie mieli dostępu do mojej strony przez ponad tydzień. Opóźnienie odnotowałem m.in. przy próbach połączenia się z Neostrady i Internet DSL od TP SA, a także z Play Online. Dlaczego coś, co powinno trwać do 48 godzin (dla świata, bo dla Polski do 12 godzin) trwało ponad 200 godzin – nie wiadomo. Należy przyjąć, że była to po prostu jedna z wielu niezidentyfikowanych awarii Internetu, na które po prostu nie ma rady.

W tym tygodniu wystąpił problem z wymianą poczty na styku Google i Allegro. Sprzedawcy i kupujący, którzy posiadali skrzynki pocztowe w usłudze Gmail, nie dostawali korespondencji z serwisu aukcyjnego. Problem dość duży, ponieważ serwis mailowo informuje obie strony transakcji o każdy etapie sprzedaży, od informacji o zakupie do powiadomienia o wpłacie pieniędzy. Po prostu w pewnym momencie serwery Google’a bez powodu zaczęły odrzucać maile wysyłane z Allegro. Po kilku dniach sytuacja została opanowana, ale do tego czasu proces komunikacji między serwisem a klientami był wstrzymany.

Z pocztą elektroniczną wiąże się jednak kilka większych problemów. Przede wszystkim nie ma jakiejkolwiek autoryzacji wysyłanej korespondencji, przez co większość krążących w sieci maili to spam. Każdy może wysłać maila z dowolnym adresem nadawcy, przy czym większość użytkowników Internetu nie ma o tym pojęcia, więc przestępcom łatwo jest podszyć się pod inną osobę czy instytucję i dokonać wyłudzenia. Spamerzy, wykorzystując miliony zainfekowanych komputerów, dysponują ogromną siecią spambotów, które mogą zablokować każdą skrzynkę pocztową. Nazywa się to atakiem “joe-job”, który polega na tym, że jako nadawcę maila podaje się adres konkretnego użytkownika. Następnie wysyłane są masowo maile na losowe adresy, a ponieważ większość z nich nie istnieje, na adres bogu ducha winnego “nadawcy” przychodzą dziesiątki tysięcy zwrotów. Efekt – mimo że właściciel konta nie wysłał żadnego maila, jego skrzynka zostaje zapchana i zablokowana. I nie ma przed tym obrony.

Nadawcy nie mają również żadnej pewności, że ich mail dotrze do adresata. Zdarza się to rzadko, ale wiele razy miałem do czynienia z sytuacją, że mail po prostu nie dotarł, przy czym nie otrzymałem żadnego zwrotu. Problemem są również filtry antyspamowe, które powodują, że owszem, niechcianej korespondencji dostajemy nieco mniej, ale kosztem tego, że od czasu do czasu nie dostaniemy ważnego maila, ponieważ zostanie on zakwalifikowany jako spam. W pewnych sytuacjach, gdy serwis korzysta z potwierdzania transakcji poprzez wysyłanie linka weryfikacyjnego, uniemożliwia to dostęp do usług. W takiej sytuacji znalazły się osoby, które swego czasu zamawiały online bilety na mecze siatkówki – do spamu w ich skrzynkach pocztowych trafiały maile z linkiem weryfikacyjnym, potrzebnym do aktywowania dostępu do platformy sprzedażowej.

Ściągnięcie większej ilości materiałów z FTP-a nie może się obyć bez kilkakrotnego zerwania połączenia. Pobieranie plików ze stron internetowych również bywa uciążliwe, gdy w połowie ściągania nastąpi zerwanie połączenia i często nie ma możliwości wznowienia operacji, pozostaje jedynie zainicjowanie ściągania od nowa. Połączenia z protokołem FTP we współczesnych sieciach to również przykład na to, jak nierówno traktowani są użytkownicy Internetu. Podczas gdy transfer przez protokół HTTP, czyli zwykłe połączenie ze stroną internetową, odbywa się z dużą prędkością, połączenia z FTP mają zazwyczaj przycięte pasmo przesyłu danych. Dlaczego? Nie wiadomo.

Struktura internetu umożliwia również prostą zabawę z blokowaniem serwisów internetowych. Każdy serwer posiada ograniczoną przepustowość, wystarczy więc większa aktywność na stronie i dostęp do witryny zostanie wyłączony. W złośliwych akcjach jest to nazywane atakiem DDoS. Ale serwisy padają również ofiarą zwykłej popularności. Większość serwerów, na których utrzymywane są współczesne strony, nie wytrzyma ruchu, jaki nastąpi po podaniu adresu strony w popularnym programie telewizyjnym. Duża ilość osób, które w tym samym momencie chcą dostać się na stronę, powoduje, że serwis na długie godziny przestaje być dostępny. Rozwiązaniem jest jedynie przewidywanie takich sytuacji i wykupowanie dziesięć razy mocniejszych serwerów po to, aby kilka dni w roku wytrzymały większy ruch niż zazwyczaj.

Współczesny Internet to również niebezpieczeństwo zarażenia komputera wirusem. Kilka wersji przeglądarek wstecz wystarczyło wejść na stronę ze złośliwym kodem, by bez naszej wiedzy został zainstalowany wirus na naszym komputerze. Luki w systemie Windows XP w czasach, gdy nie było jeszcze dodatku SP1 do tego systemu, powodowały, że komputer z nowo zainstalowanym system operacyjnym tuż po podłączeniu go do sieci od razu otrzymywał porcję wirusów, które blokowały dostęp do Internetu.

Twórcy oprogramowania są zawsze kilka kroków wstecz względem zagrożeń płynących z Internetu. Popularny język skryptowy PHP został przygotowany tak, że pierwotnie nie przewidziano w nim ochrony przez atakami SQL Injection, a wewnętrzna instrukcja “mail”, służąca do wysyłania poczty z poziomu skryptu, została tak opracowana, że jej użycie zgodnie z podręcznikiem oznacza otworzenie furtki dla robotów, które wykorzystają ją do rozsyłania spamu. Typowy skrypt do forum, po umieszczeniu na popularnej stronie, z miejsca potrzebuje albo programisty, który będzie systematycznie łatał skrypty, albo moderatora, który będzie poświęcał czas na usuwanie pojawiającego się tam spamu.

Można mnożyć zarzuty pod adresem konstrukcji Internetu. Jego funkcjonowanie jest genialne i jednocześnie oparte na najgorszych z możliwych rozwiązań. Dziś, gdyby ktoś chciał opracować Internet 2.0, na pewno sieć działałaby inaczej. Wiele rzeczy można byłoby opracować lepiej, na przykład usprawnić propagację domen czy zapewnić nieskończoną pulę adresów IP, tak aby fizyczne adresy były dobrem dostępnym dla każdego, a nie towarem reglamentowanym za opłatą. Również język do tworzenia stron mógłby zostać stworzony raz a porządnie. Ale dziś wielu błędów nie da się naprawić, ponieważ rozsiane są one w milionach miejsc na świecie. Stworzenie Internetu 2.0 i wprowadzenie go do powszechnego użytku oznaczałoby albo odcięcie się od obecnej infrastruktury, co spowodowałoby technologiczny chaos, albo drogie utrzymywanie dwóch struktur jednocześnie i powolne zastępowanie jednego systemu drugim.

Czy doczekamy się Internetu 2.0? Raczej nic na to nie wskazuje. Pozostaje pogodzić się z faktem, że musimy utrzymywać dużą liczbę informatyków, serwisantów i moderatorów oraz dopłacać do nadmiarowego sprzętu i dodatkowego transferu, aby obsłużyć ruch generowany przez spam, błąkające się po łączach pakiety oraz zrywające połączenia.

Autor: Sławomir Wilk
Źródło: Dziennik Internautów

1 Star2 Stars3 Stars4 Stars5 Stars Zostań pierwszą osobą, która oceni ten wpis!
Loading...

TAGI:

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

14
Dodaj komentarz

Chcesz skomentować? Zaloguj się!
  Subskrybuj  
najnowszy najstarszy
Powiadom o
hybrid
Gość
hybrid

moj wykładowca z sieci komputerowych mowil ze wprowadzenie internet2 umozliwi wylaczenie kazdej strony i kazdego serwera n acalym swiecie w mgnieniu oka, co oznacza ze wszyskie serwisy nie podobajace sie wladzy bedea mogly byc z niego wykluczone tak jak wolnemedia.net

hybrid
Gość
hybrid

aha pan redaktor chyba jest do tylu, bo projekt internet2 juz istnieje czeka tylko na odpowiedni moment zeby zostac wdrozonym i protokol tcp/ip jest juz w nowej wersji v6 on zapewnia o wiele wieksza pule adresowa niz dotychczasowy v4

Murphy
Użytkownik
Murphy

“Efekt – mimo że właściciel konta nie wysłał żadnego maila, jego skrzynka zostaje zapchana i zablokowana. I nie ma przed tym obrony.”

To nie można na skrzynce ustawić reguły na tego typu e-maile aby się od razu do kosza przenosiły/usuwały? Wg mnie jest to możliwe, ale nie każdy tak ma zrobione.

Murphy
Użytkownik
Murphy

Co do reszty się w miarę zgadzam: internet to niezły bałagan. Ale jak ma nie być bałagan skoro to też część życia ludzi. A jak wiadomo w życiu też tego bałaganu jest sporo.

W dodatku utworzenie Internet 2.0 wcale nie gwarantuje że pozbędziemy się wszystkich obecnych niedogodności bo w ich miejsce równie dobrze mogą pojawić się nowe.

yusef.novak
Użytkownik
yusef.novak

A jak sobie autor wyobraza wolnosc? Wszytko oparte o jeden jezyk, jeden format, jeden standard, jedna czcionke, jeden adres, jeden uniform, jedno imie? Czlowieku jestes CHORY nie masz pojecia o czym piszesz i jest to kolejny artykul dla bezmyslnych jednostek ktore sa tak bezmyslene ze to co nawolnych mediach przeczytaja wieza to w jak mochery w o. rydzyka. Wolnosc wlasnie polega na tym i jest oparta o to ze kazdy ma prawo wyboru tak samo jak organizacje ‘tworzace’ standardy jak i uzytkownicy z nich kozystajacy. Jaki internet 2? O czym ty bredzisz? Internet rowija sie tak jak i spolecznosc go tworzaca i uzywajaca, coz z tego ze xhtml nie zostal twoim zdaniem dokonczony to tak jak wiedziec ze kobieta w lonie nosi martwe dziecko czy lekarz bedzie kazal jej nosic te dziecko do 9 miesiaca? ehhh wolnemedia sa pisane przez ‘wolnych’ ludzi wolnych ludzi ktorzy potrzebuja zeby ktos im pokazal ‘prawde’ ha ha

Raptor
Użytkownik

@yusef.novak
Autor nie jest chory, lecz opisuje realne problemy techniczne współczesnego Internetu. Czytaj ze zrozumieniem, albo zasięgnij trochę literatury. Jeśli dla Ciebie “wolność” oznacza powolne działanie i chaos, to rozumiem Twój punkt widzenia.

Standardy w kwestiach technicznych, to rzecz konstruktywna, ratująca życie i oszczędzająca czas. Bez standaryzacji każdy system prędzej czy później ulegnie poważnej entropii i zacznie się degenerować. To tak, jakby nagle ciało człowieka podzieliło się na N skupisk komórek rakowych, z których każde dzieliłoby się i rozrastało po swojemu. W końcu powstanie mutant, który straci wewnętrzną integralność i zdolność do życia.

W zasadzie to ciężko mówić o jakimś podziale na Internet 1.0, czy 2.0, bo natura Internetu charakteryzuje się dość powolną propagacją wdrażania nowych standardów. W dowolnym czasie wszystkie możliwe rozwiązania koegzystują ze sobą. Żeby nie było to mieszanką różnych technologii z różnych okresów rozwoju sieci, wymagających masy trików i obejść, to trzeba by w zasadzie postawić nową odrębną infrastrukturę sprzętowo-programową… tak, żeby nikt tego okresu przejściowego nie odczuł.

Istnieje już pojęcie Web 2.0, ale dotyczy ono tylko konceptualnego opisu sposobów wykorzystania sieci i jej narzędzi. Wizjonerzy już opracowują odważne koncepcje dla 3.0, ale w tym wypadku może się już nie obejść bez nowego zaplecza rozwiązań technicznych, bo po prostu nas zapcha “wydajność”.

MamDosc
Użytkownik
MamDosc

Tu nie chodzi o techniczne sprawy tylko o totalną kontrolę ostatniego jeszcze wolnego narzędzia ludzi .
Tego chaosu nie są w stanie w pełni kontrolować . Wersja 02 jest już i czeka na mega problem (myślę że jakiś haker na usługach CIA uruchomi jakąś wyrzutnie rakiet balistycznych lub podobne )i wtedy nastąpi żałoba-medialne oburzenie ,a na końcu rozwiązanie -Internet 02.
A może już nawet nie potrzebują tego mega czynnika i zrobią to tak zwyczajnie .Bo pedofil,faszysta albo inny syf . To będzie i nic z tym nie zrobimy .

Raptor
Użytkownik

cyt.:”…żadna z przeglądarek nie obsłuży tak prostej rzeczy, jak zmiana koloru czy wielkości elementu checkbox – podstawowego pola formularza HTML”

Jeśli o “stylowanie” formularzy chodzi, to moim ulubieńcem pod względem “standaryzacji” jest “input file” (element pozwalający na dodanie i wysłanie pliku) ;) Cztery przeglądarki i cztery różne sposoby wyświetlania.

Raptor
Użytkownik

@MamDosc
Mogą być rozmaite rozwiązania dla tego, co zwane jest kolejną wersją sieci. Czy na pewno w tym artykule jest opisana ta wersja, którą masz na myśli?
Trzeba ustalić, czy mówimy o logice rozwiązań, czy o tym, co można pod postacią takich rozwiązań ukryć. Konserwy rybne również mogą być używane do zatruwania i eliminowania ludzi. Bombę atomową można ukryć w każdej latarni ulicznej… itd.

MamDosc
Użytkownik
MamDosc

@Raptor
Masz rację ,ale w owym artykule nie ma ani słowa o mocno pospieszanym trendzie ograniczania swobód w internecie . Postęp i technologia to również czip w formie implantu . Nie technologia mnie niepokoi,a ludzie którzy mają wszystko w garści .
Ps.Konserwy i rtęciowe tuńczyki naprawdę zabijają (może nie tak spektakularnie jak bomba,ale jednak ) a bomby walizkowe jeszcze gdzieś się pojawią ( Rosjanie nie mogą się doliczyć kilku )
:) pozdrawiam

MiB
Użytkownik
MiB

O TCP/IP v6 słyszałem jeszcze kilka lat temu jak na studiach byłem, także dziś jest on już w trakcie wdrażania. Jeśli chodzi o obecny stan internetu, to można go porównać do żywego organizmu, który ewoluuje. Jedne technologie się rodzą, inne umierają śmiercią naturalną. Jeszcze inne umierają przedwcześnie bo szybko pojawiło się coś lepszego. Czysta natura, jeśli można to tak określić ;P Ujednolicenie całego systemu sprawi, że przestanie się on rozwijać… :(

Aru
Użytkownik
Aru

MliB-I o to chodzi. Coś uporządkowanego łatwiej kontrolować przez rządy niż ten wrzący tygiel jakim jest obecnie internet. To jego wada i zarazem zaleta.

Rozbi
Użytkownik
Rozbi

Tez nie rozumiem sensu tego artykułu.

Tak jakby internet sie nie rozwijał….

A przeciez wlasnie dzieki obecnej formie i braku jednolitego standardu – tak mocno i szybko sie rozwjia, co sam autor przyznaje na początku wymieniając mnogość i szybkośc implementowania nowych rozwiązań.

Ja nie widze problemu internetu tylko oprogramowania – ale i tak jest o niebo lepiej niz chocby 5 lat temu….

Poza tym nie widze nawet jak mialby wygladac internet 2.0 .

Czytając między wierszami można odnieść wrażenie śe wg Autora powinien to być – JEDEN serwis społecznościowy, JEDEN dostawca usług mailowych JEDNA wyszukiwarka i JEDEN dostawca internetu – dopiero to by gwarantowało jedność oprogramowania i możliwość całkowitej kontroli nad SPAMEM itp itd.

Tylko dobrze wiemy co dzieje sie gdy mnogość zamieniamy na JEDENO – monopolista traci puls do rzowoju i technologia staje w miejscu.

Dla mnie internet jest piekny bo sie rozwija – i co z tego ze jest niedoskonaly ???

I tak jest idealnym narzędziem do komunikacji i pracy – i do tego stosunkowo tanim, a to że nie jest doskonały??? To już problem informatyków i film programistycznych a nie klienta.

Klient ma mieć jak najlepiej i jak najszybciej.

Jesli autor chce wprowadzic internet 2.0 – prosze bardzo niech to zrobi, moze zalozyc nowe sieci przesylu, nowe serwery , zaciagnac kredyt i otworzyc nowa firme dostarczenia internetu na miare XXI wieku.

\Ale dlaczego maja tą zmianą objęci być wszyscy bez wyjatku? Przeciez to zakrawa na przymus i cyfrowy zamordyzm.

Ja nie narzekam na swój internet – jest dobrze.

hybrid
Gość
hybrid

Aru, ja uwazam ze to dobrze ze internet to tygiel, nieuporzadkowany dzieki temu masz roznorodnosc i wolnosc, jesli zaszablonujemy przestanie byc atrakcyjny!!