Η Google απαιτεί JavaScript για προστασία από bots και scrapers

seo google javascript

Η απόφαση της Google να απαιτεί JavaScript αλλάζει τον τρόπο που λειτουργούν τα εργαλεία SEO.

Η Google ανακοίνωσε μια σημαντική αλλαγή στη λειτουργία της μηχανής αναζήτησης, με στόχο την προστασία των αποτελεσμάτων από bots και scrapers (εργαλεία SEO που συλλέγουν δεδομένα).

Πλέον, για να λειτουργεί η αναζήτηση στο Google, η JavaScript πρέπει να είναι ενεργοποιημένη, είτε πρόκειται για ανθρώπους είτε για bots. Αυτή η αλλαγή επηρεάζει σημαντικά τον τρόπο που λειτουργούν τα εργαλεία SEO, καθώς περιπλέκει τη διαδικασία συλλογής δεδομένων.

Τι σημαίνει αυτή η αλλαγή;

1. Χρήση JavaScript για μπλοκάρισμα bots και scrapers

Η Google χρησιμοποιεί JavaScript για να αυξήσει την ασφάλεια των υπηρεσιών της. Αυτή η τεχνολογία:

  • Περιορίζει τα αιτήματα από bots και scrapers που προσπαθούν να αντλήσουν δεδομένα από τα αποτελέσματα αναζήτησης.
  • Δυσκολεύει τη μη εξουσιοδοτημένη πρόσβαση, ειδικά από εργαλεία SEO που δεν χρησιμοποιούν headless browsers (φυλλομετρητές χωρίς γραφικό περιβάλλον, σχεδιασμένοι για αυτοματοποιημένες διαδικασίες).

2. Νέο μήνυμα για απενεργοποιημένη JavaScript

Χρήστες που επιχειρούν να χρησιμοποιήσουν την αναζήτηση του Google χωρίς ενεργοποιημένη JavaScript, βλέπουν το εξής μήνυμα:
“Turn on JavaScript to keep searching. The browser you’re using has JavaScript turned off. To continue your search, turn it on.”

Αυτό το μήνυμα υποχρεώνει ακόμη και bots να έχουν JavaScript ενεργοποιημένη για να συνεχίσουν τη λειτουργία τους.

3. Ποιος είναι ο σκοπός της αλλαγής;

Η Google εξηγεί ότι η ενεργοποίηση της JavaScript προσφέρει:

  • Καλύτερη προστασία των χρηστών και των υπηρεσιών από κακόβουλες επιθέσεις, bots και ανεπιθύμητη δραστηριότητα.
  • Πιο σχετικές πληροφορίες για τους χρήστες, πιθανώς μέσω εξατομίκευσης της αναζήτησης.
  • Ενίσχυση της εμπειρίας αναζήτησης, καθιστώντας τη πιο ασφαλή και επίκαιρη.

Τεχνική ανάλυση του JavaScript

Ανάλυση JavaScript από το ChatGPT

Ένας χρήστης χρησιμοποίησε το εργαλείο Chrome DevTools για να εξάγει JavaScript από τη σελίδα της Google και ζήτησε ανάλυση από το ChatGPT. Η ανάλυση αποκάλυψε τα εξής:

  1. Βασικές λειτουργίες του κώδικα:
    • Rate-Limiting: Περιορίζει πόσα αιτήματα μπορεί να κάνει ένας χρήστης ή σύστημα μέσα σε συγκεκριμένο χρόνο.
    • Exponential Backoff: Εισάγει αυξανόμενες καθυστερήσεις στις επαναλαμβανόμενες αιτήσεις από έναν χρήστη ή bot που αποτυγχάνουν.
  2. Πώς δουλεύει:
    • Δημιουργεί τυχαίες τιμές και καθυστερήσεις για να περιορίσει κακόβουλα αιτήματα.
    • Εφαρμόζει κανόνες και πολιτικές για το πότε θα επιτρέπονται ή θα απορρίπτονται αιτήματα.
    • Λειτουργεί σε περιβάλλοντα με υψηλή επισκεψιμότητα (όπως υπηρεσίες της Google) για την αποφυγή κατάχρησης.
  3. Συμπέρασμα: Ο κώδικας πιθανώς συνδέεται με το πώς η Google μπλοκάρει bots, ενισχύει την ασφάλεια και διαχειρίζεται την επισκεψιμότητα.

Πώς επηρεάζονται τα εργαλεία SEO;

1. Αυξημένο κόστος λειτουργίας

  • Για να παρακάμψουν τον νέο περιορισμό, τα εργαλεία SEO χρειάζονται περισσότερους υπολογιστικούς πόρους, όπως:
    • Χρήση headless browsers (για φόρτωση της JavaScript).
    • Επιπλέον βήματα για την επεξεργασία δεδομένων, όπως χρόνος φόρτωσης JavaScript.
  • Αυτά αυξάνουν το κόστος λειτουργίας και, ενδεχομένως, τις τιμές για τους τελικούς χρήστες.

2. Αργότερη διαδικασία scraping

  • Η χρήση JavaScript κάνει τη διαδικασία συλλογής δεδομένων πιο αργή, καθώς οι εργαλειοθήκες SEO πρέπει να περιμένουν για τη φόρτωση του περιεχομένου.
  • Η Google μπορεί να ανιχνεύσει πιο εύκολα τέτοιες δραστηριότητες, καθιστώντας τις μπλοκαρισμένες αιτήσεις πιο συχνές.

3. Πιθανές αλλαγές στις τιμές των εργαλείων

Ορισμένοι ειδικοί προβλέπουν ότι οι αυξημένες απαιτήσεις πόρων για την εκτέλεση scraping με JavaScript θα οδηγήσουν σε:

  • Αύξηση τιμών για εργαλεία SEO.
  • Μεγαλύτερη δυσκολία για μικρότερα εργαλεία να ανταγωνιστούν τις μεγαλύτερες εταιρείες.

Αντιδράσεις από την κοινότητα SEO

1. SERPrecon

  • Το εργαλείο SERPrecon, που συγκρίνει αποτελέσματα αναζήτησης μεταξύ ανταγωνιστών, ανακοίνωσε ότι ξεπέρασε τα προβλήματα και λειτουργεί ξανά κανονικά.

2. Semrush

  • Το Semrush δήλωσε ότι οι καθυστερήσεις που παρατηρήθηκαν οφείλονταν σε συντήρηση και όχι στις αλλαγές της Google.
    Επίσης, υποσχέθηκε να συνεχίσει να παρακολουθεί την κατάσταση για τυχόν μελλοντικά προβλήματα.

ΣΧΕΤΙΚΑ ΑΡΘΡΑ