SiteAnalyzer 2.8 – Domain-Analyse, Cookie-Verwaltung, Export ausgewählter Projekte nach Excel

Wir setzen das Thema der Beschreibung der Funktionen von SiteAnalyzer fort (ein kostenloses Site-Audit-Programm – das russische Äquivalent von Screaming Frog SEO Spider) und freuen uns, die Veröffentlichung einer neuen Version 2.8 bekannt zu geben, in der wir einen Satz von 6 Domänenanalysen hinzugefügt haben Module, implementierte die Möglichkeit, Cookies zum Parsing von Websites zu verwenden und zu verwalten, fügte die Möglichkeit hinzu, Berichte zu ausgewählten Projekten automatisch nach Excel zu exportieren, und korrigierte die nicht immer erfolgreiche Registrierung des Programms. Lassen Sie uns über alles ausführlicher sprechen.

Wichtige Änderungen

1. Domänenanalyse

In der neuen Version von SiteAnalyzer haben wir einen Satz von 6 Domänenanalysemodulen hinzugefügt, um es unseren Benutzern zu erleichtern, Websites zu analysieren, ohne Webdienste von Drittanbietern zu verwenden. Module werden über das Kontextmenü der Projektliste aufgerufen.

Liste der Module:

  • WHOIS-Check;

  • Überprüfen der Serverantwort;

  • Suche nach Subdomains;

  • CMS-Prüfer;

  • Semantische Textanalyse;

  • Textrelevanzanalyse.

Fast jedes der Module ermöglicht Ihnen die Batch-Arbeit mit Domains sowie die Möglichkeit, die empfangenen Daten in eine CSV-Datei oder Zwischenablage zu exportieren.

WHOIS-Check

Das Tool ist für die Massenbestimmung des Alters von Domains und ihrer Hauptparameter bestimmt. Unser WHOIS-Checker hilft Ihnen dabei, das Alter von Domains in Jahren zu bestimmen, zeigt WHOIS-Daten, den Namen des Domain-Registrars, das Erstellungs- und Registrierungsablaufdatum, NS-Server, die IP-Adresse, den Organisationsnamen des Domain-Eigentümers und die Kontakt-E-Mail (falls angegeben) an.

Darüber hinaus können Sie über das Kontextmenü für jede Website Informationen zum Datenverkehr abrufen ähnliches Netzgehen Sie zu den gespeicherten Kopien der Website auf der Internetressource Archiv.org und führen Sie eine detaillierte Prüfung der Linkmasse in durch Majestätisch, Semrush, Ahrefs indem Sie einen der interessanten Dienste besuchen.

Server-Antwortprüfung

Mit diesem Modul können Sie überprüfen, welchen Response-Code der Server zurückgibt, wenn er auf eine seiner Seiten zugreift. Für normale Seiten sollte der HTTP-Code 200 (OK) zurückgegeben werden, für nicht vorhandene Seiten sollte dieser Code gleich 404 (Nicht gefunden) sein. Es gibt auch andere Server-Antwortcodes wie: 301, 403, 500, 503 usw.

Neben dem Antwortcode selbst zeigt das Skript alle Header an, die der Server liefert (Antwortcode, Zeit auf dem Server, Art des Servers und seines Inhalts, Weiterleitungen usw.).

Darüber hinaus ist es möglich, die Serverantwort und die Liste aller Weiterleitungen in einem Popup-Formular über das Kontextmenü der URL-Liste der Website zu überprüfen.

Site-Subdomain-Suche

Das Tool wurde entwickelt, um nach Subdomains einer bestimmten Website zu suchen. Die Suche nach Subdomains hilft bei der Analyse der beworbenen Website – um alle ihre Subdomains zu identifizieren, einschließlich der aus irgendeinem Grund “vergessenen” oder technischen (Test-)Domains, die nicht von der Indexierung ausgeschlossen sind, sowie allgemein zur Analyse große Online-Shops und Portale in Teilen der Organisation ihrer Struktur. Die Suche basiert auf speziell konstruierten Anfragen an verschiedene Suchmaschinen. Somit wird die Suche nur auf den Subdomains der gesuchten Webressource durchgeführt, die für die Indexierung zugelassen sind.

Zusätzlich ist es möglich, gefundene Subdomains in die Projektliste zu exportieren.

CMS-Checker

Das Modul dient dazu, das CMS einer Site und einer Gruppe von Sites in einem automatischen Online-Modus zu ermitteln. Die Bestimmung von Typ und Name des CMS erfolgt über die Suche nach bestimmten Mustern im Quellcode der Seiten der Website. Mit diesem Service können Sie also mit einem Klick das CMS ermitteln, auf dem Dutzende von für Sie interessanten Websites ausgeführt werden, ohne den Quellcode der Seiten und die Besonderheiten verschiedener Content-Management-Systeme studieren zu müssen.

Wenn das von Ihnen verwendete Content-Management-System nicht in unserer Datenbank enthalten ist, können Sie uns über das Feedback-Formular schreiben, und wir werden Ihr CMS in unsere Liste aufnehmen.

Semantische Textanalyse (Schlüsseldichteanalyse auf einer Seite)

Dieser semantische Analysator analysiert die wichtigsten SEO-Parameter des Textes, wie z. B.: Textlänge, Anzahl der Wörter, Keyword-Dichte-Analyse (Übelkeit), „Wasser“ im Text (Wassergehalt).

Eine ähnliche semantische Analyse kann für jede Seite der Site über das Kontextmenü der URL-Liste dieses Projekts durchgeführt werden.

Textrelevanzanalyse (Page Optimization Quality Analyzer on Demand)

Dieses Tool richtet sich an SEO-Spezialisten und ermöglicht Ihnen eine detaillierte Analyse des Inhalts der interessierenden Seite im Hinblick auf seine Relevanz für eine beliebige Suchanfrage.

Die Hauptkriterien, nach denen eine Website-Seite als „bereit“ für die Werbung bezeichnet werden kann, sind: das Vorhandensein des h1-Tags, die Anzahl der Vorkommen des Schlüsselworts in TITLE und BODY, die Menge des Seitentexts, die Anzahl der genauen Vorkommen von die Abfrage im Text usw.

Wenn Sie diese Regeln befolgen, können Sie die Position der Website erhöhen und die Seite nicht nur für die Suchmaschine, sondern auch für den Benutzer freundlicher gestalten, was wiederum zu einem besseren positiven Feedback des Benutzers und höheren Conversions (Steigerung der Bestellungen) führt , gezielte Anrufe).

Mit diesem Tool kann der Optimierer also durch Variieren der Anzahl der Vorkommen von “Schlüsseln” auf der Seite sowie durch Bearbeiten des Inhalts und der Meta-Tags eine optimale Übereinstimmung zwischen Schlüsselphrasen und Inhalt erzielen, was sich positiv auf die Einstellung auswirkt von Suchmaschinen.

2. Verwendung von Cookies

Auf Wunsch unserer Benutzer wurde die Möglichkeit hinzugefügt, Cookies im Programm zu verwenden, sowie der Export aller Informationen über Cookies nach Excel.

Cookies (“Cookies”) – kleine Textdaten, die von einem Webserver gesendet und auf dem Computer des Benutzers gespeichert werden. Diese Dateien speichern normalerweise Informationen über den Website-Besucher sowie andere Servicedaten (wann und von welchem ​​​​Gerät aus die Person die Seite besucht hat, für welche Produkte sie sich interessiert hat, die IP-Adresse des Benutzers, seine Sitzung usw.). Cookies sind eine Art Nummer, mit der Sie jeden Benutzer auf der Website identifizieren können.

Viele Websites sind gegen das Parsen durch Skripte und Programme von Drittanbietern geschützt, einschließlich der Überprüfung auf das Vorhandensein von Cookies. Daher ist die Verwendung von Cookies während des Scrapings beim Crawlen der meisten Websites obligatorisch, da der Schutz sonst auf der Website und dem Inhalt der Website funktioniert wird nicht empfangen.

SiteAnalyzer hat 3 Optionen für die Verwendung von Cookies:

  • Persistent – ​​wählen Sie diese Option, wenn der Zugriff auf die Website für Zugriffe ohne Cookies gesperrt ist. Es ist auch nützlich, dass alle Anfragen innerhalb derselben Sitzung gezählt werden, da bei deaktivierter Einstellung jede neue Anfrage eine neue Sitzung erstellt. Diese Berechtigung ist standardmäßig aktiviert.

  • Sitzung – in diesem Fall erstellt jede neue Anfrage an die Site eine neue Sitzung.

  • Ignorieren – Deaktivieren Sie die Verwendung von Cookies.

Wir empfehlen, die erste Option zu verwenden, da sie am häufigsten vorkommt und es Ihnen ermöglicht, die meisten Websites im Netzwerk zuverlässiger zu crawlen.

Die Cookie-Nutzungsoptionen werden in den Hauptprogrammeinstellungen auf der Registerkarte „Scannen“ konfiguriert.

Es ist auch möglich, eine Liste aller Cookies der aktiven Seite über die Schaltfläche „Cookies exportieren“ im Hauptmenü des Programms in eine Textdatei zu exportieren.

3. Exportieren Sie ausgewählte Projekte nach Excel

Mit dieser Funktion können Sie Berichte zu ausgewählten Projekten nach Excel exportieren, ohne jedes Projekt einzeln manuell exportieren zu müssen. Diese Funktion funktioniert automatisch durch Angabe des Zielordners, wenn mehr als ein Projekt für den Export ausgewählt ist, ansonsten wird nur das aktuelle Projekt exportiert.

Der Einfachheit halber wird für jede Site automatisch eine separate Datei mit dem Namen des Projekts erstellt.

4. Eingabe des Registrierungsschlüssels in das Programm

Die nicht immer erfolgreiche Registrierung des Programms wurde behoben – der Registrierungsschlüssel wird jetzt problemlos vom Programm akzeptiert.

Andere Änderungen

  • Die Berücksichtigung der Regeln “URL folgen” und “URL ausschließen” der Haupteinstellungen des Programms ist für alle Projekte üblich geworden.

  • Es wurde ein Fehler im Dashboard behoben, der beim Wechseln zwischen Projekten auftrat, wenn die wichtigsten Qualitätsindikatoren der Website zusammengefasst wurden.

  • Fehler beim Exportieren eines Projekts behoben, wenn im Projekt ein Tab mit fehlenden Daten geöffnet ist. In diesem Fall war der Export nicht verfügbar.

  • Optimierter Sitemap-Generierungsalgorithmus für Bilder (Bilder werden jetzt relativ generiert Google-Empfehlungen).

  • Fehler behoben, bei dem beim Scannen einzelner Seiten in der Statusleiste der Zähler “Bearbeitete Projekte” fälschlicherweise erhöht wurde.

  • Redundante Berücksichtigung des Inhalts von ALT-Tags für Dateien vom Typ Favicon behoben (Alt für Dateien im HEAD-Block wird ignoriert).

  • Der Fehler „Zugriffsverletzung“ wurde behoben, der beim Klicken auf das rechte Feld und Diagramm im Google PageSpeed-Modus auftrat.

  • Das Problem der nicht immer korrekten Übertragung von Headern an den Server beim Scannen einer Seite wurde behoben.

  • Optimierter Export nach Excel von Feldern, die für den Benutzer sichtbar und nicht alle verfügbar sind.

  • Falsche Definition externer Weiterleitungen (definiert als intern) behoben.

  • Serververbindungsfehler behoben, der beim Suchen nach Versionsaktualisierungen auftrat.

  • Fehlerhaftes Arbeiten mit Domains mit WWW im Namen behoben.

  • Nicht immer korrektes Parsen von ALT- und TILE-Tags für Bilder behoben.

  • Nicht immer korrekte Abrechnung von doppelten H1- und Beschreibungs-Tags behoben.

  • Eine Schaltfläche hinzugefügt, die das Datenexportmenü im Infobereich aufruft.

  • Möglichkeit hinzugefügt, 3xx-Umleitungen erneut zu scannen.

Pläne

In den nächsten Versionen ist die Integration mit Yandex- und Google-Analysesystemen geplant, die Möglichkeit zum Scannen von Websites hinzuzufügen, die mit der SPA-Technologie erstellt wurden, und vieles mehr.

Wir freuen uns über Kommentare und Vorschläge zur Arbeit und Entwicklung der Programmfunktionalität.

Similar Posts

Leave a Reply

Your email address will not be published.