Pokaż wyniki 1 do 5 z 5

Temat: Defragmentacja na Shared-Hostingu

  1. #1
    Zarejestrowany
    Nov 2009
    Postów
    643

    Domyślnie Defragmentacja na Shared-Hostingu

    Witam

    Na wstępie podam definicje shared-hostingu w moim słowniku.
    Shared hosting to usługa gdzie masz dostęp do ftp, mysql'a, php (w trybie half/safe) i do niczego więcej. brak dostępu do shella.

    Zastanawiam się czy fragmentacja plików strony www na dysku takiego serwera moze wplynac na czas jej ladowania.
    Jesli tak to o ile, o ile zazwyczaj, o ile w skrajnych przypadkach i jak mozna na to wplynac (zdeframentować nie mając praw).

    Bo hej, jak optymalizować to wszędzie gdzie się tylko da, każda nanosekunda urwana z czasu generowania strony to mały sukces.

    Ja się nad tym jeszcze zastanowie i zedytuje, tymczasem czekam na wasze wypowiedzi.

    // ad1
    Zakładamy wstępnie że pamięć masowa serwera zorganizowana jest w RAID1, na standardowych Low-Price hitachi 500gb
    Oczywiscie wszelkie opinie dotyczące defragmentacji na innych pamięciach mile widziane.
    Ostatnio edytowane przez lame : 12-30-2009 - 02:02
    światło mądrości oświetla drogę z nikąd do nikąd

  2. #2
    Zarejestrowany
    May 2007
    Skąd
    Kraków
    Postów
    371

    Domyślnie

    Pewnie hosting jest na linuxie... Tam fragmentacja systemu plików ma mały wpływ na szybkość więc przez większość użytkowników jest pomijana...
    Nie wspomne o tym, że pofragmentowanie systemu plików odbija się głównie przy odczycie dużych plików którego fragmenty są chcąc niechcąc rozrzucone po dysku... Spójrzmy prawdzie w oczy - przeciętny plik PHP waży 50KB, jakiś gif 100KB - to naprawdę nie jest dużo.

    Jeżeli naprawdę zależy ci na szybkości spróbuj cachować co się tylko da, najlepiej przegenerowane pliki (już statyczny HTML) do wyświetlenia. Jeżeli to nie wystarczy to cache umieść w RAM-ie serwera (chociaż system cachuje sam niektóre fragmenty dysku w RAM-ie, także więc i pliki strony).
    Możesz także spróbować memcached do cachowania pojedynczych zmiennych... Zrób benchmarki czy aby z cachowaniem jest szybciej....

    Spróbuj zrobić swojej stornie jakiś wykres ładowania. Będziesz widział co zajmuje najwięcej czasu.

    kilka tipów z doświadczania:
    • javascripty umieszczaj na końcu strony (wtedy przeglądarka wyświetli część storny bez javascirptu - jeżeli są u góry to pierwsze czeka na js-y potem wczytuje reszte) - daje naprawdę dużo
    • kompresuj pliki javascript (jeszcze przez GZIP-em), polecam tutaj choćby http://code.google.com/intl/pl-PL/closure/compiler/), kompresuj pliki CSS (wywalaj spacje, entery, taby, komentarze)
    • zmniejszaj ilość zapytań - z 5 plików CSS zrób 1, z 4 plików javascript zrób 1
    • włącz kompresje GZIP


    //edit: no trochę się zapędziłem, sry za offtop
    Ostatnio edytowane przez Teeed : 12-30-2009 - 10:29

  3. #3
    Zarejestrowany
    Jun 2006
    Skąd
    rand(.eu)
    Postów
    8,748

    Domyślnie

    generalnie odpowiedz dobra... trzeba pamietac tylko ze niektore przegladarki nie daja sobie rady z kompresowanym JS i wywalaja krzaki...

    fragmentacja dysku nie ma wielkiego znaczenia, poza tym dla czesciej ladowanych plikow i tak wiele serwerow WWW (w tym Apache z tego co pamietam) sam w sobie roi cache plikow w pamieci, wiec czyta raz...

    Skup sie raczej na aplikacji, ogranicz jak wyzej ilosc plikow, ilosc zpaytan do bazy, buforuj wyniki, itd. Skracanie czas ladowania strony to zakrawa powoli na nauke
    ctrl-alt-del.cc - soft reset site for IT admins and other staff :-)

  4. #4
    Zarejestrowany
    Nov 2009
    Postów
    643

    Domyślnie

    OK, dzięki za odpowiedź

    Optymalizacja to niniejszym nauka, bowiem zajmujemy się tym w trzech

    Zakładamy że optymalizacja aplikacji jest już pełna.. to jest temat rzeka, mam na tym polu jakieś doświadczenie, można by się rozpisywać bardzo długo.
    To co piszecie o cachowaniu zapytań to oczywiście prawda (poniekąd) minimalizacja ilości osobnych plików niezbędnych do załadaowania storny, oczywiście, mam to wszystko,
    Chcę aby rozmowa skupiła się wyłącznie na tematyce deframentacji plików.

    Ciekawi mnie Teeed co rozumiesz przez to, że defragmentacja ma mały wyływ na systemy pracujące pod kontrolą systemu Linux, prosze rozwiń tą myśl.

    Fragmentacja moze dotknąć zarówno małe jak i duże pliki, dla których będzie bardziej dotkliwa? ...

    Czy istnieje szansa że mocno obciążony shared-serwer przymuli nawet na kilka sekund, poniważ zapytania dla dysku zostaną (właśnie ze względu na dużą fragmentacje) dziwnie zakolejkowane?

    Oczywiście, "pierwszy" odczyt jest niajtrudniejszy, następny odbywa się już bardzo szybko, pewnie ma to związek z szeregiem narzędzi cachujących a to w samym dysku twardym, a to w Apachu, ten pierwszy odczyt (pierwszy od jakiegoś czasu) to miejsce gdzie chce zawalczyć o zwiększenie wydajności

    TQM, zakładając że na serwerze siedzi 1k userów, to twoje cache są raczej często usuwane, jeśli odpalasz strone raz dziennie to na pierwsze wywołanie żadne cachowanie nie działa. To pierwsze wywołanie lubi trwać kilka sekund, zastanawiam się czy dobra defragmentacja mogłaby to troche przyśpieszyć.

    Teeed, wykresy ładowania na obcym systemie w dodatku ciągle obciążonym nie mają sensu.

    Czy zgadamy się jak tu siedzimy, że defragmentacja może tylko pomóc?

    Jeśli tak to jak ją przeprowadzić na shared-hostingu?
    Ostatnio edytowane przez lame : 12-30-2009 - 14:17
    światło mądrości oświetla drogę z nikąd do nikąd

  5. #5
    Zarejestrowany
    Jun 2006
    Skąd
    rand(.eu)
    Postów
    8,748

    Domyślnie

    Ok - jesli masz pare tysiecy unikalnych userorow dziennie i cache nie daje rady to sorry - nie powinienes byc na shared hosting ale na dedicated albo colocation... taka prawda.

    Wtedy bedziesz mogl zdecydowac jak odbywac sie buforowoanie plikow itd. Inaczej zapomnij - Twoje pytanie nie ma sensu. Ja na grupie moich serwerow aplikacyjnych mam pare milionow trafien dziennie, plus pare razy tyle na serwerach serwujacych statyczne pliki... shared hosting nigdy nie mial u nas prawa bytu, wiec sieganie po defragmentacje plikow na hostingu do ktorego nawet nie masz dostepu shell to jedna wielka pomyska i strata czasu - czas przesiasc sie co najmniej na dedyka.
    ctrl-alt-del.cc - soft reset site for IT admins and other staff :-)

Podobne wątki

  1. poszukuje 'gorszego' hostingu
    By h3x in forum Domeny/Serwery
    Odpowiedzi: 4
    Autor: 01-27-2008, 10:44

Zasady Postowania

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •  
Subskrybuj