Συζήτηση
Γεια χαρά, Επισκέπτης
Όνομα χρήστη: Κωδικός: Να με θυμάσαι
  • Σελίδα:
  • 1
  • 2

ΘΕΜΑ: Διάβασμα δεδομένων από web page.

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2706

  • Tassos
  • Το Άβαταρ του/της Tassos
  • Αποσυνδεμένος
  • pyth__
  • g-lts.info
  • Δημοσιεύσεις: 78
  • Ληφθείσες Ευχαριστίες 5
Θα ήθελα να υλοποιήσω μια εφαρμογή η οποία θα μπορεί να συνδέετε σε μια ιστοσελίδα και από αυτή να βλέπει κάτι συγκεκριμένο και να το εμφανίζει στον χρήστη.

π.χ.: να μπαίνει στην σελίδα εδώ " python.org.gr/ " και να εμφανίζει μονάχα τους τίτλους της αρχικής σελίδας και ανάλογα αν υπάρξει κάποιος νέος τίτλος ( άρθρο ) να το εμφανίζει έπειτα. Δεν ξέρω πως να υλοποιήσω κάτι τέτοιο και τι θα χρειαστώ.
Διάβασα κάτι πράγματα για το urllib , αλλά θα ήθελα την δική σας καθοδήγηση.

Ευχαριστώ.
Ομάδα Ελληνικής - Μακροχρόνιας υποστήριξη.

Greek - Long Term Support Team.

Επισκεφθείτε μας εδώ : g-lts.info
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2707

  • gravvanis
  • Το Άβαταρ του/της gravvanis
  • Αποσυνδεμένος
  • py____
  • Δημοσιεύσεις: 17
  • Ληφθείσες Ευχαριστίες 8
Μπορείς να ψάξεις για python (web) scraping στο google ή στο youtube. Υπάρχει αρκετό υλικό πάνω στο συγκεκριμένο θέμα. Δες το παρακάτω (το ξέρω ότι είναι 3 ώρες) αναφέρει αρκετές βιβλιοθήκες. Επειδή είναι σε μορφή live μαθήματος κάνε skip τα σημεία που τους βάζει να κάνουν ασκήσεις ή κάνε και εσύ μαζί τους.
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.
Οι ακόλουθοι χρήστες είπαν "Σε Ευχαριστώ": Tassos

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2709

  • kamar
  • Το Άβαταρ του/της kamar
  • Αποσυνδεμένος
  • python
  • Δημοσιεύσεις: 409
  • Ληφθείσες Ευχαριστίες 88
Βασικά θα χρειαστείς τα modules urllib και re.
Με το πρώτο διαβάζεις ολόκληρη τη σελίδα και με το δεύτερο βρίσκεις το κείμενο «στόχο».
Ένα απλό παράδειγμα σ' αυτό το ποστ, αν και παλιό δίνει μια ιδέα.

Σε γενικά πλαίσια:
  • Διαβάζεις τη σελίδα (site)
  • Καθορίζεις τι θέλεις να διαβάσεις. Παράδειγμα τις επικεφαλίδες που περικλείονται σε <h2> tags. Ίσως το πιο περίπλοκο κομμάτι.
  • Αποθηκεύεις τα αποτελέσματα.
Γράφω σε Python 3
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.
Οι ακόλουθοι χρήστες είπαν "Σε Ευχαριστώ": Tassos

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2710

  • kamar
  • Το Άβαταρ του/της kamar
  • Αποσυνδεμένος
  • python
  • Δημοσιεύσεις: 409
  • Ληφθείσες Ευχαριστίες 88
... και ένα μικρό παράδειγμα:
#!/usr/bin/env python3
#-*-coding: utf-8-*-
 
import urllib.request
import re
 
 
motivo = "<li class=\"klatest-subject\">\s*.*>([\w+\s*\.?]+)</a></li>"
 
f = urllib.request.urlopen('http://python.org.gr/')
 
content = str(f.read().decode())
 
vrethikan = re.findall(motivo, content)
 
print(vrethikan)
Γράφω σε Python 3
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.
Οι ακόλουθοι χρήστες είπαν "Σε Ευχαριστώ": Tassos

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2711

  • Tassos
  • Το Άβαταρ του/της Tassos
  • Αποσυνδεμένος
  • pyth__
  • g-lts.info
  • Δημοσιεύσεις: 78
  • Ληφθείσες Ευχαριστίες 5
Ψάχνοντας και εγώ έπεσα πάνω στο module (?) re, αυτό τι είναι όμως και τι μπορείς να κάνεις ;
Είναι για κανονικές εκφράσεις ( regular expressions ) ;
Και μας χρησιμεύει ώστε να βρούμε και να πάρουμε αυτό ακριβώς που θέλουμε; Αν και όλα αυτά τα λέω πολύ θεωρητικά χωρίς να καταλαβαίνω ακριβώς τι γίνεται.
( Έχω διαβάσει μερικά πράγματα για τις κανονικές εκφράσεις αλλά τις έχω χρησιμοποιήσει ελάχιστα.. )

π.χ. εδώ δίνεις την κανονική έκφραση, που επακριβώς μπορείς να μου αναλύσεις τι σημαίνει;

motivo = "<li class=\"klatest-subject\">\s*.*>([\w+\s*\.?]+)</a></li>"


και εδώ με την εντολή " re.findall( kanoniki_ekfrasi, kimeno ) " ( αν την αναλύω σωστά ), τι ακριβώς συμβαίνει - γίνεται - επιστρέφει ;;;

vrethikan = re.findall(motivo, content)

Επίσης θα ήθελα να μου έλεγες αν μπορείς, τι κάνεις και με την εντολή:

content = str(f.read().decode())


Εγώ πάντως στην ιστοσελίδα που προσπαθώ να πάρω κάποια δεδομένα έχω ένα αρχικό πρόβλημα που νομίζω έχει να κάνει με την κωδικοποίηση, τι εννοώ; Δείτε εδώ.


Υ.Σ. Πάντως μου άρεσε πάρα πολύ ο δικό σου παραπάνω κώδικας και κάτι τέτοιο θέλω να κάνω και εγώ σε μια σελίδα.

Σας ευχαριστώ πολύ!
:)
Ομάδα Ελληνικής - Μακροχρόνιας υποστήριξη.

Greek - Long Term Support Team.

Επισκεφθείτε μας εδώ : g-lts.info
Τελευταία διόρθωση: 9 Χρόνια 9 Μήνες πριν από Tassos.
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2712

  • gravvanis
  • Το Άβαταρ του/της gravvanis
  • Αποσυνδεμένος
  • py____
  • Δημοσιεύσεις: 17
  • Ληφθείσες Ευχαριστίες 8
Αν δεν κάνω λάθος με την εντολή
content = str(f.read().decode())
κάνει τα περιεχόμενα της σελίδας μια μεγάλη string και με το
vrethikan = re.findall(motivo, content)
ψάχνει μέσα στην string με το motivo που έχει ορίσει και ότι βρίσκει το βάζει σε μια λίστα

Όσων αφορά την κωδικοποίηση μάλλον υπάρχει κάποιος χαρακτήρας που κάνει τη ζημιά και δεν είναι σε utf8. Σε τι γλώσσα είναι η σελίδα σου?

Για το μοτίβο βασικά πρέπει να ξέρεις λίγο html και τι ψάχνεις να βρεις από την σελίδα το li είναι στοιχείο της html και το a επίσης. Το klatest-subject είναι μάλλον typo latest θα ήθελε να γράψει το παιδί. Το \ κάνει escape το " για να μπορείς να γράψεις "klatest-subject" χωρίς να μπερδεύεις την python. Δες εδώ για περισσότερα.
Τελευταία διόρθωση: 9 Χρόνια 9 Μήνες πριν από gravvanis.
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2713

  • kamar
  • Το Άβαταρ του/της kamar
  • Αποσυνδεμένος
  • python
  • Δημοσιεύσεις: 409
  • Ληφθείσες Ευχαριστίες 88
π.χ. εδώ δίνεις την κανονική έκφραση, που επακριβώς μπορείς να μου αναλύσεις τι σημαίνει;

motivo = "<li class=\"klatest-subject\">\s*.*>([\w+\s*\.?]+)</a></li>"

Διαβάζοντας τον κώδικα της ιστοσελίδας, βρίσκουμε τα κοινά σημεία πριν και μετά τις επικεφαλίδες, οπότε:

Πριν την επικεφαλίδα βρίσκουμε αυτό:
<li class=\"klatest-subject\">\s*.*>
Το πραγματικό αλφαριθμητικό, που στην περίπτωση αυτή είναι <li class="klatest-subject">
Παρτήρησε ότι έκανα escape τα διπλά εισαγωγικά, με ανάποδες κάθετες.
Στη συνέχεια με τους χαρακτήρες: \s*.*, βρίσκουμε τα κενά και οποιοδήποτε άλλο χαρακτήρα και τέλος το > συμβολίζει πραγματικό χαρακτήρα.

Μετά την επικεφαλίδα ακολουθεί το πραγματικό αλφαριθμητικό </a></li>

Η πραγματική τώρα, εργασία γίνεται με αυτή την έκφραση:
([\w+\s*\.?]+)
Οι παρενθέσεις λένε στην python να ομαδοποιήσει (grouping) τα περιεχόμενα που βρίσκονται μέσα σ' αυτές. Μέσα στις αγκύλες ([]) βάζουμε αυτό που θέλουμε να βρούμε· δηλαδή:
  • \w+ Έναν ή περισσότερους χαρακτήρες unicode.
  • \s* που ακολουθούνται από μηδέν ή περισσότερα κενά.
  • \.? και τέλος από μία ή καμμία τελεία. (πρόσεξε την ανάποδη κάθετο.)

Βέβαια μιλώντας γενικά θα μπορούσα να γράψω (.*), δηλαδή να ψάξει για οποιονδήποτε χαρακτήρα.

Τώρα μια επεξήγηση των συμβόλων (μεταχαρακτήρες):

Τελεία (.): οποιοσδήποτε χαρακτήρας.
Αστεράκι (*): Ο προηγούμενος χαρακτήρας να εμφανίζεται μηδέν ή περισσότερες φορές.
Συν (+): Ο προηγούμενος χαρακτήρας να εμφανίζεται μία ή περισσότερες φορές.
Αγγλικό ερωτηματικό (?): Ο προηγούμενος χαρακτήρας να εμφανίζεται μία φορά ή καθόλου.
\w: Οποιοσδήποτε unicode, χαρακτήρας.
\s: Οποιοδήποτε κενό.
Περισσότερες πληροφορίες στο εγχειρίδιο, χρήσης.

Για το
vrethikan = re.findall(motivo, content)
όπως το έγραψες και εσύ και ο gravvanis.

Εγώ πάντως στην ιστοσελίδα που προσπαθώ να πάρω κάποια δεδομένα έχω ένα αρχικό πρόβλημα που νομίζω έχει να κάνει με την κωδικοποίηση, τι εννοώ; Δείτε εδώ.

Ψάξε την ιστοσελίδα, για την κωδικοποίησή της. Μπορεί πχ να είναι windows-1253, οπότε
content = str(f.read().decode('windows-1253'))
Γράφω σε Python 3
Τελευταία διόρθωση: 9 Χρόνια 9 Μήνες πριν από kamar. Αιτία: Διόρθωση ορθογραφικών λαθών.
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2715

  • Tassos
  • Το Άβαταρ του/της Tassos
  • Αποσυνδεμένος
  • pyth__
  • g-lts.info
  • Δημοσιεύσεις: 78
  • Ληφθείσες Ευχαριστίες 5
Όντως πάρα πάρα πολύ σωστή παρατήρηση και απλή! ;) Που δε μου πήγε στο μυαλό εμένα :/
Το site που θέλω να δουλέψω εγώ, έχει κωδικοποίηση "iso-8859-7" όπως βλέπω στην σελίδα έτσι έβαλα απλά ένα :

content = str(content.read().decode('iso-8859-7'))


Επίσης όσο αφορά την κανονική έκφραση είστε απίστευτοι σας ευχαριστώ πάρα πολύ, όπως είπα είχα διαβάσει μερικά πράγματα για τις κανονικές εκφράσεις και τώρα όμως με τις επεξηγήσεις σας κατάφερα να δημιουργήσω την κατάλληλη ώστε να βρίσκει αυτό που πρέπει και θέλω. :)

Το θέμα είναι ότι για κάποιο λόγο με μπερδεύει ακόμη ( αν και τα κατάφερα όπως είπα ), στο τι ακριβώς "κρατάει" τελικά η κανονική μου έκφραση. Όπως και η δική σου παραπάνω :

"<li class=\"klatest-subject\">\s*.*>([\w+\s*\.?]+)</a></li>"


τελικά π.χ. το " <li class="klatest-subject"> " του λέμε να ΜΗΝ το δει ; και να μας φέρει ότι είναι εδώ :

([\w+\s*\.?]+)


αλλά λέμε και πιο πριν ένα :

\s*.*


αυτό είναι σαν να το λέει απλώς προχώρα τα αυτά... ; :dry: :unsure:

Δε το καταλαβαίνω και πάλι απόλυτα.
Αν μπορείτε βοηθήστε με, νομίζω πως είναι γενικά αποδεχτό πως οι κανονικές εκφράσεις είναι από τα δύσκολα αλλά και πιο δυναμικά πράγματα.


Τώρα όμως θα ήθελα να έπαιρνα και το link που φαίνεται στην σελίδα και σε αυτό δυστυχώς δεν έχω καταφέρει ακόμη να σχηματίσω στην σωστή κανονική πρόταση ώστε να το βρίσκει.

Εδώ μπορείτε να δείτε την τακτική που ακολούθησα ώστε να φτιάξω την κανονική έκφραση και το πως είναι τα δεδομένα στην σελίδα & κατ' επέκταση πως υπάρχει και το link που προσπαθώ να πάρω.

Ευχαριστώ πολύ.
Ομάδα Ελληνικής - Μακροχρόνιας υποστήριξη.

Greek - Long Term Support Team.

Επισκεφθείτε μας εδώ : g-lts.info
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2716

  • kamar
  • Το Άβαταρ του/της kamar
  • Αποσυνδεμένος
  • python
  • Δημοσιεύσεις: 409
  • Ληφθείσες Ευχαριστίες 88
Αν διαβάσεις την τεκμηρίωση της python και ιδιαίτερα τους συμβολισμούς των μεταχαρακτήρων, Θα καταλάβεις. Πάντως, για την ιστορία οι παρενθέσεις γκρουπάρουν και επιστρέφουν το αποτέλεσμα.
Οι κανονικές εκφράσεις είναι ένα μεγάλο κεφάλαιο και αρκετά δύσκολο. Αν μπορείς να τις αντικαταστήσεις με συναρτήσεις string, άλλωστε αναφέρεται και στην τεκμηρίωση.
Τώρα όμως θα ήθελα να έπαιρνα και το link που φαίνεται στην σελίδα και σε αυτό δυστυχώς δεν έχω καταφέρει ακόμη να σχηματίσω στην σωστή κανονική πρόταση ώστε να το βρίσκει.

Εδώ μπορείτε να δείτε την τακτική που ακολούθησα ώστε να φτιάξω την κανονική έκφραση και το πως είναι τα δεδομένα στην σελίδα & κατ' επέκταση πως υπάρχει και το link που προσπαθώ να πάρω.

Απλοποίησε το μοτίβο:
motivo = "<td.*><a.*>([\w+\s*]+)</a></td"
re.findall(motivo, selida)
Γράφω σε Python 3
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2717

  • pmav99
  • Το Άβαταρ του/της pmav99
  • Αποσυνδεμένος
  • Author
  • Δημοσιεύσεις: 684
  • Ληφθείσες Ευχαριστίες 111
Προσωπικά θα σου πρότεινα να μην κάνεις web scraping με regular expressions. Υπάρχουν ειδικές βιβλιοθήκες φτιαγμένες για να κάνουν ακριβώς αυτό που θες. Οι πιο γνωστές είναι το scrapy και το beautifulsoup. Κατά τη γνώμη μου, το δεύτερο είναι λίγο πιο εύκολο για να ξεκινήσεις
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.
Οι ακόλουθοι χρήστες είπαν "Σε Ευχαριστώ": Tassos

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2719

  • Tassos
  • Το Άβαταρ του/της Tassos
  • Αποσυνδεμένος
  • pyth__
  • g-lts.info
  • Δημοσιεύσεις: 78
  • Ληφθείσες Ευχαριστίες 5
Η απλοποίηση σου για την δική μου έκφραση δε λέω είναι πάρα πολύ ωραία και πιο λυτή, αλλά υπάρχει ένα πράγμα που δε καταλαβαίνω γιατί δε λειτουργεί.

Γιατί έτσι :

motivo = "<td.*><a.*>([\w+\s*]+)</a></td"


και γιατί όχι να βάλεις ΚΑΙ το img tag ;

motivo = "<td.*><IMG.*><a.*>([\w+\s*]+)</a></td"


ή να πεις μετά το <td> tag οτιδήποτε άλλο μέχρι να τελειώσει το <a> tag :

motivo = "<td.*>.*<a.*>([\w+\s*]+)</a></td"

ποιο είναι πιο "σωστό";
Όλα το ίδιο κάνουν. Μήπως με το δικό σου δε χρειάζεται να πεις και παραπάνω πράγματα γιατί προσδιορίζεται έτσι και αλλιώς το που να κοιτάξει;

Πάντως από κάτι τέτοιο :

motivo = "<center><table\s+border=\'0\'\s+cellpadding=\'0\'\s+cellspacing=\'0\'\s+width=\'100%\'>\s+<tr><td\s+bgColor=#.*\">([\w+\s*]+)</a></td>"


όντως είναι ποιο απλά τα πράγματα τώρα. Απλώς όμως ήθελα να το διευκρινίσω όσο το δυνατόν περισσότερο ( να στενέψω τα περιθώρια λάθους ) με την μεγάλη μου έκφραση - μοτίβο ( όπως λες ;) ) και έπειτα στις εναλλακτικές που παραθέτω προσπαθώ πάλι το ίδιο.

Θα με ενδιέφερε η άποψη σου - η άποψη όλων για αυτό το θέμα.

Αυτό που καταλαβαίνω τελικά είναι πως απλώς με όλα τα άλλα προσδιορίζουμε που να δει - βρει αυτό που θέλουμε και μέσα στις παρενθέσεις τελικά της έκφρασης λέμε ακριβώς αυτό που θέλουμε να βρούμε - να μας επιστρέψει.

όμως τώρα π.χ. βλέπω πως πιάνει και το παρακάτω :

motivo = "<td.*>.*<a.*>(.*)</a></td"


χωρίς να χρειάζεται π.χ. να διευκρινίσω και το τι μπορεί να βρει μετά το td tag.

Δε..κάπως.., θέλω την άποψη σας πάνω στο θέμα για να το διευκρινίσουμε το ζήτημα όσο το δυνατόν περισσότερο και να μάθουμε όχι μόνο εγώ, αλλά πιθανών όλοι μας.


+Το ότι τελικά κατάφερα να πάρω το link με την παρακάτω έκφραση όμως που δε νομίζω να είναι και τόσο μα τόσο "σωστή" :

links_motivo = "<td.*><IMG.*><a\s*href=\"(.*)\">"


επίσης με παραξενεύει που έτσι δε λειτουργεί :

links_motivo = "<td.*><IMG.*><a\s*href=\"([.*]+)\">"

Τι έχετε να μου πείτε για αυτό; Είμαι σίγουρος πως υπάρχουν καλύτερα με μεταχαρακτήρες και άλλα..., που θα προσδιορίζουν καλύτερα και αυτό που θέλουμε και αυτό που περιμένουμε όμως να βρούμε.
Ομάδα Ελληνικής - Μακροχρόνιας υποστήριξη.

Greek - Long Term Support Team.

Επισκεφθείτε μας εδώ : g-lts.info
Τελευταία διόρθωση: 9 Χρόνια 9 Μήνες πριν από Tassos.
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2720

  • gravvanis
  • Το Άβαταρ του/της gravvanis
  • Αποσυνδεμένος
  • py____
  • Δημοσιεύσεις: 17
  • Ληφθείσες Ευχαριστίες 8
Θα μπορούσες πάντως αν το θεωρείς πιο εύκολο να χρησιμοποιήσεις το beautiful soup.
 
from bs4 import BeautifulSoup
import urllib2
 
page = urllib2.urlopen('http://www.selida.com')
html = BeautifulSoup(page)
table = html.find('table')
links = table.find_all('a')
print links

ή
 
for link in table.find_all('a', href=True):
   print link['href']
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.
Οι ακόλουθοι χρήστες είπαν "Σε Ευχαριστώ": Tassos

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2723

  • serafeim
  • Το Άβαταρ του/της serafeim
  • Αποσυνδεμένος
  • py____
  • Δημοσιεύσεις: 12
  • Ληφθείσες Ευχαριστίες 1
Προσοχή!

Δε χρησιμοποιούμε ποτέ, μα ποτέ regular expressions για να διαβάσουμε HTML.

Ο λόγος εξηγείται πολύ σωστά εδώ: stackoverflow.com/a/1732454/119071

Δεν πρέπει λοιπόν να απλώς να προτείνεται η χρήση βιβλιοθηκών όπως το scrapy ή το BeautifulSoup όπως σημείωσαν κάποιοι φίλοι αλλά να επιβάλλεται.

Επίσης, άσχετο, αλλά η αρχική απαίτηση είναι ξεκάθαρο ότι θα πρέπει να γίνει χρησιμοποιώντας το RSS feed της υπό παρακολούθηση σελίδας και όχι με scrapping.
Τελευταία διόρθωση: 9 Χρόνια 9 Μήνες πριν από serafeim.
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.
Οι ακόλουθοι χρήστες είπαν "Σε Ευχαριστώ": Tassos

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2729

  • gravvanis
  • Το Άβαταρ του/της gravvanis
  • Αποσυνδεμένος
  • py____
  • Δημοσιεύσεις: 17
  • Ληφθείσες Ευχαριστίες 8
:lol: :lol: :lol: το link που έδωσες serafeim, απλά δεν υπάρχει. Αν υπάρχει rss ή κάποιο api από την σελίδα για να πάρουμε τα δεδομένα που θέλουμε, το χρησιμοποιούμε εννοείται. Το πιο απλό ξεχάσαμε.
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.

Διάβασμα δεδομένων από web page. 9 Χρόνια 9 Μήνες πριν #2735

  • serafeim
  • Το Άβαταρ του/της serafeim
  • Αποσυνδεμένος
  • py____
  • Δημοσιεύσεις: 12
  • Ληφθείσες Ευχαριστίες 1
Πραγματικά η συγκεκριμένη είναι από τις καλύτερες απαντήσεις στο SO !
Πρέπει να είστε εγγεγραμμένο μέλος του Φόρουμ για να κάνετε μια δημοσίευση.
  • Σελίδα:
  • 1
  • 2
Συντονιστές: pmav99
Χρόνος δημιουργίας σελίδας: 0.486 δευτερόλεπτα

Μοιράσου το!

Powered by CoalaWeb

Λίστα Ταχυδρομείου