Strona 1 z 2 12 OstatniOstatni
Pokaż wyniki 1 do 10 z 14

Temat: Tutorial - Pobieranie plików ze stron

  1. #1
    Avatar se4o
    se4o jest offline YinSecure
    Zarejestrowany
    Jun 2011
    Postów
    20

    Domyślnie Tutorial - Pobieranie plików ze stron

    Witam , pewnie wielu z was chciałoby pobrać z jednej strony cała zawartość plików np jpg , .html , .php itd

    Dla dowodu pobrałem cały index.html strony hack.pl
    index html

    Pewnie bana dostanę za ten index ;( ;D
    Tu jest program
    wget.exe

    Program sciągamy po czym otwieramy W windowsie cmd w viscie jako administrator i 7 a win xp normalnie

    Ściągamy plik po czym tworzymy folder o takiej samej nazwie w Dysku C:\
    wrzucamy tam plik

    Wchodzimy do cmd
    i wpisujemy

    Kod:
    cd C:\wget
    Kod:
    wget -r -A.html http://www.hack.pl/
    i teraz wchodzimy do katalogu wget w dysku C i utworzy nam się folder z plikami ze strony hack.pl ... możecie spróbować

    Tam gdzie jest A.html ustalamy z jaką końcówką ma nam ściągać pliki ze strony ... Pracuje nad tym byśmy mogli przesyłać pliki na strone ;ddd
    Ostatnio edytowane przez se4o : 06-29-2011 - 18:57

  2. #2
    Avatar GSG-9
    GSG-9 jest offline Shapeshifter
    Zarejestrowany
    Jul 2007
    Skąd
    C:\Perl\bin
    Postów
    1,578

    Domyślnie

    = ctrl+s [enter]
    War, war never changes.

  3. #3
    Zarejestrowany
    Nov 2009
    Postów
    643

    Domyślnie

    Ja do pobierania stron używam HTTrack.

    HTTrack Website Copier - Offline Browser
    światło mądrości oświetla drogę z nikąd do nikąd

  4. #4
    Zarejestrowany
    Oct 2008
    Skąd
    woj. Lubuskie. Dokładniej się nie da
    Postów
    405

    Domyślnie i co?

    A ja Teleport Pro pod windą.

    Każdy tak sobie może pisać. W tym miejscu spodziewałabym się na przykład opisania wgeta wraz z jego przełącznikami. Bardzo często używam takiej opcji
    Kod:
    wget -r -l 0 -k -p -np -c
    którą kiedyś podał mi Nikow. Z tym że on miał bez -c (a mnie często zrywa i opcja continue + wywołanie w pętli działały zbawiennie) ale z opcją -b (wysłanie w tło. U mnie nie zdawało egzaminu, bo nie widziałam kiedy coś się psuło)

    Co do samego polecenia wget: po zainstalowaniu pakietu manpages-pl mamy w manualu to polecenie w języku polskim opisane (nie wszystkie są), więc nie widzę problemu, by nawet początkujący użytkownik sobie z nim nie poradził.
    Jak mamy dużo plików porozwalanych po serwerach dajemy -i plik_z_linkami_txt

    Co jeżeli strona wymaga podania loginu i hasła? Żaden problem. Dopisz do polecenia
    Kod:
    --http-user=UŻYTKOWNIK --http-password=HASŁO
    , albo używasz ciasteczka które masz w przeglądarce, podając swojego useragenta w przeglądarce, która ciacho dostała.
    Pokazując użycie wgeta na przykładzie zapisania strony, którą wystarczy "zapisać jako" spłyciłeś możliwości tego potężnego narzędzia do mirroru i nie tylko. Tym naprawdę idzie bardzo wiele zdziałać. Mnogość opcji... Podejrzenie odpowiedzi serva, zrzucanie logów do pliku, a nawet efekty wizualne jak zmiana pasku postępu...

    Wybacz, ale pisząc tutorial i dając "dowód" ośmieszyłeś się.
    Jeśli nie będziesz mieć pod górke, nigdy nie dojdziesz na szczyt.

  5. #5
    Zarejestrowany
    Nov 2009
    Postów
    643

    Domyślnie

    Cytat Napisał Piatkosia2010 Zobacz post
    A ja Teleport Pro pod windą.
    Długo korzystałem z teleporta ale brakowało wielu opcji.
    HTTrack nadrobił to z nawiązką. Szczerze polecam również i Tobie ^_^
    światło mądrości oświetla drogę z nikąd do nikąd

  6. #6
    Zarejestrowany
    Sep 2011
    Postów
    4

    Domyślnie A jak pobrać to?

    Zobaczcie. Chciałbym pobrać zawartość strony, w tym przypadku chodzi mi dokładnie o animację flash, ale chłopaki tak sprytnie zakombinowali że bez odpowiedniego parametru "hash_id" nie ma się dostępu do animacji. Nie wystarczy wpisać adres pliku do pobrania, potrzebny jest jeszcze wspomniany parametr. Próby zapisania spełzają na niczym. Rzućcie okiem:

    http://files.flipsnack.net/app/swf/E...96b6fad96q2123

    Ma ktoś pomysł jak taką nowinkę rozpykać?

  7. #7
    Zarejestrowany
    Jun 2006
    Skąd
    rand(.eu)
    Postów
    8,748

    Domyślnie

    banal... wszystkie takie strony padaja jak zasymulujesz zachowanie przegladarki

    1. wchodzisz na stone, dostajesz hash
    2. znajdujesz URL do filmilu SWF...
    3. pobierasz filmik
    ctrl-alt-del.cc - soft reset site for IT admins and other staff :-)

  8. #8
    Zarejestrowany
    Sep 2011
    Postów
    4

    Domyślnie

    Waham się od dłuższego czasu, bo to jednak ryzykowne pytanie. Wiecie jak to jest na forach gdy ktoś zadaje za proste pytanie. Zaraz pojawia się lawina ciekawych komentów typu "wystarczy wpisać w google!!!", albo "od czego masz funkcję szukaj w forum?!". W domyśle jednak wszystkie te odpowiedzi mają w podtekście jedną przesłankę: "co za debil". Wygrała u mnie tymczasem prymitywna chęć zgłębienia tematu. Co się wydarzy? Czas pokaże.
    TQM ... powiedz proszę, jak się to robi. Jak dokonać takiej symulacji. Pomysł jest genialny, ale jak go wykonać. Przyznam się, że zanim zajrzałem na forum grzebałem w śmieciach i ze znalezionych odpadków próbowałem ułożyć coś mądrego. Mówię tu o Temporary Internet Files, no bo w końcu przeglądarce faktycznie udaje się pobrać wszystkie elementy animacji i to z grubsza właśnie dlatego że jest przeglądarką. Ale jak podszyć się pod przeglądarkę?

  9. #9
    Zarejestrowany
    Jun 2006
    Skąd
    rand(.eu)
    Postów
    8,748

    Domyślnie

    Chyba kazdy jezyk programowania ma biblioteke do wykonywania zapytan do serwisow www - niektore sa lepsze, inne sa gorsze, jeszcze inne calkiem podstawowe i bezuzyteczne.

    Ja pisze akurat w Perlu - WWW::Mechanize ma ogromne mozliwosci i uzywam tego modulu akurat bo jestem zbyt leniwy aby robic calosc recznie w podstawowym LWP. WWW::Mechanize to niejako nakladka na LWP - upraszcza wiele spraw...

    Ta biblioteka pozwala akurat na automatyczne utrzymanie sesji miedzy zapytaniami, znajdowanie linkow (ktore zawieraja tekst w opisie albo dany tekst w URLu), klikanie na nie (nawet przyciski w JavaScript) itd... dlatego cala taka robota jest banalnie prosta i moim zdaniem przyjemna - nie trzeba nic kombinowac.
    ctrl-alt-del.cc - soft reset site for IT admins and other staff :-)

  10. #10
    Zarejestrowany
    Sep 2011
    Postów
    4

    Domyślnie

    OK, zatem moje pytanie nie było tak banalne jak się obawiałem. Dziękuję TQM!
    Ja z kolei troszkę piszę w ActionScript 3.0 i faktycznie przypominam sobie że i tam występują biblioteki do wykonywania zapytań dla www. Wiem już w którym kierunku zmierzać - muszę zbudować własny program pobierający. Dam radę

Strona 1 z 2 12 OstatniOstatni

Zasady Postowania

  • Nie możesz zakładać nowych tematów
  • Nie możesz pisać wiadomości
  • Nie możesz dodawać załączników
  • Nie możesz edytować swoich postów
  •  
Subskrybuj