SEO 30 Nisan 2022

Screaming Frog Nedir ve Nasıl Kullanılır? Kapsamlı Screaming Frog Rehberi

Anıl Zengin

Screaming Frog SEO Spider, SEO çalışmalarında kullanılan tarama (crawling) araçları arasında yüksek popülerliği olan ve her SEO uzmanının en az bir kere kullandığı bir araçtır. Ücretsiz ve premium olarak iki farklı seçeneği bulunan Screaming Frog aracı, bir internet sitesini tamamen tarayarak tüm hatalarını tespit etmenize olanak sağlar. Hazırladığım bu rehberde Screaming Frog’a dair tüm merak ettiklerinizi, Screaming Frog’daki tüm bölümleri ve anlamlarını, Screaming Frog’un nasıl kullanıldığını ve bir internet sitesinin SEO hatalarının Screaming Frog ile nasıl tespit edildiğini derledim.

Screaming Frog SEO Spider Nedir?

Screaming Frog SEO Spider, 2010 yılında Dan Sharp tarafından kurulan Screaming Frog şirketi tarafından geliştirilen bir SEO crawling aracıdır. Aracın adı her ne kadar Screaming Frog SEO Spider olsa da, internet ve SEO sektöründe “Screaming Frog” adıyla özleşmiştir. Screaming Frog aracının sınırlı sayıda URL taramanıza izin veren ücretsiz bir sürümü ve sınırsız tarama yapabileceğiniz bir premium sürümü bulunmaktadır.

Rakiplerinden (DeepCrawl, JetOctopus, OnCrawl) farklı olarak bulut tabanlı bir web uygulaması değil, Java tabanlı bir yazılımdır. Yani Screaming Frog’u bilgisayarınıza bir program olarak yükleyip kullanabilirsiniz. Günümüzde Screaming Frog toplamda 100 binden fazla indirmeye sahiptir ve SEO sektöründe her SEO uzmanının en az 1 kere kullandığı bir araçtır.

Screaming Frog İndirme ve Kurulumu Nasıl Yapılır?

Screaming Frog yazılımını kullanmak için ilk önce cihazınıza uygun versiyonunu (Windows, Mac veya Ubuntu) https://www.screamingfrog.co.uk/seo-spider/#download adresinden seçerek indirmeniz gerekmektedir. Bilgisayarınıza inen kurulum dosyasını çalıştırdığınızda kurulum aşamalarını tamamlamanız gerekmektedir. Sonrasında kurulum tamamlanacak ve bilgisayarınızda Screaming Frog kullanılabilir durumda olacak.

Screaming Frog’u ilk çalıştırdığınızda karşınıza bu ekran gelecek ve bir lisansınız yoksa, maksimum 500 URL tarama limiti olacak şekilde bir internet sitesi için tarama gerçekleştirebileceksiniz.

Screaming Frog Lisansı Satın Alma ve Etkinleştirme

Eğer ücretsiz sürümü kullanmak yerine bir lisans satın alarak sınırsız sayıda URL için tarama yapmak isterseniz, öncelikle https://www.screamingfrog.co.uk/seo-spider/licence/ adresinden bir lisans satın almanız gerekmekte. Bir lisans sahibi olduktan sonra, Screaming Frog yazılımını açarak üst menüde bulunan “Licence > Enter Licence” bölümünden lisansınızı etkinleştirmeniz gerekiyor.

screaming-frog-lisan-etkinlestirme

Burada açılan pencerede sizden istenen “Username” ve “Licence Key” gibi lisans bilgilerinizi girerek “OK” butonuna basmanızla birlikte girdiğiniz bilgilerde bir problem yoksa, lisansınızın geçerlilik süresi ve Screaming Frog yazılımının yeniden başlatıldıktan sonra lisanslı olarak kullanıma hazır olduğu bilgisi görünecektir. Bu aşamadan sonra yapmanız gereken tek şey Screaming Frog’u kapatıp yeniden başlatmaktır.

Screaming Frog Sistem Ayarları Nelerdir ve Nasıl Yapılır?

Screaming Frog’daki üst menüde bulunan Configuration menüsünde, System bölümü altında Screaming Frog yazılımının genel ayarları diyebileceğimiz bölüm bulunmaktadır. Burada sırasıyla Memory Allocation, Storage Mode, Proxy, Embedded Browser ve Language seçenekleri bulunur. Bu seçenekler yardımıyla Screaming Frog yazılımının çalışma biçimini özelleştirebilirsiniz. Aşağıda bu ayarlar hakkında bilgilendirme bulunmaktadır.

Memory Allocation

Screaming Frog SEO Spider, başlangıçta ne kadar bellek ayrılması gerektiği hesaplamasında Java’yı kullanır. Screaming Frog’da varsayılan olarak 32 bit için 1 GB ve 64 bit makineler için 2 GB’a izin verilir. Eğer buradaki RAM miktarını özelleştirerek artırırsanız, ayrılan bellek miktarının artmasıyla birlikte özellikle RAM modundayken ve aynı zamanda veritabanına kaydederken daha fazla URL’yi taramanız sağlayacaktır.

screaming-frog-memory-allocation

Özellikle çok yüksek sayıda URL’e sahip internet sitelerini Screaming Frog ile tararken, buradaki bellek miktarının artırılması ve yüksek belleğe sahip bir bilgisayar üzerinden tarama gerçekleştirilmesi büyük önem arz eder. Bu hem tüm URL’leri tarayabilme gücünüz olması hem de URL’lerin daha kısa sürelerde taranabilmesi anlamına gelir.

Storage Mode

Storage Mode, Screaming Frog’un tarama verilerini depolama ve işleme konusunda hangi kaynağı kullanacağını seçmenizi sağlayan bir ayardır. Screaming Frog’daki bu ayarda Memory Storage ve Database Storage seçenekleri yer almaktadır. Memory Storage ayarında tüm veriler RAM’e depolanırken, Database Storage ayarında da HDD/SSD üzerinde depolama sağlanır.

Memory Storage

Storage Mode ayarında bu mod seçildiğinde, Screaming Frog taramasındaki tüm verilerin depolanması ve işlenmesi RAM tarafından yapılır. Screaming Frog, varsayılan ayarlarında tarama verilerini depolamak ve işleyebilmek için RAM kullanımı yapar. RAM kullanımıyla birlikte hız ve esneklik gibi faydalar sağlanabilir.

Memory Storage modu, 500 binden az sayıda URL’e sahip olan internet sitelerinin taranması ve RAM miktarı yüksek olan makinelerde kullanılması önerilen bir moddur.
screaming-frog-storage-mode

Database Storage

Storage Mode ayarında bu mod seçildiğinde, Screaming Frog taramasındaki tüm verilerin depolanması ve işlenmesi HDD ya da SSD tarafından yapılır. Eğer hızlı bir SSD sahibiyseniz, taramalarınızı Database Storage üzerinden gerçekleştirmeniz avantajlı olabilir. Database Storage modu, daha büyük ölçekte URL’e sahip olan sitelerin taranmasında, büyük tarama dosyalarının hızlı şekilde işlenip açılmasında, önceki tarama dosyalarıyla karşılaştırmalarda ve değişiklik algılama özelliklerinin kullanılmasında önerilir. Ayrıca Database Storage modu etkinken, yanlışlıkla temizlenen taramalar, menüde yer alan File > Crawls bölümüyle geri getirilebilir.
screaming-frog-proxy-configuration

Proxy

Screaming Frog üzerinden gerçekleştireceğiniz taramalarda eğer bir Proxy kullanımı yapmak istiyorsanız, bu bölümü kullanabilirsiniz. Proxy kullanımı için bazı dikkat etmeniz gereken noktalar vardır;

  • Sadece 1 proxy sunucusu kullanılabilir,
  • Proxy ayarı için yaptığınız değişikliklerin etkili olması için Screaming Frog’u yeniden başlatmanız gerekir,
  • Proxy etkinken herhangi bir istisna eklenemez. Ya tüm HTTP/HTTPS trafiği proxy üzerinden gider ya da hiçbiri gitmez,
  • Bazı proxy’ler, form tabanlı kimlik doğrulama kullanarak taramadan önce oturum açma ayrıntılarını girmenizi gerektirebilir.

Language

Language bölümü, Screaming Frog yazılımını hangi dilde kullanacağınızı seçebileceğiniz bir alandı.

screaming-frog-language-configuration

Screaming Frog’da şu anda maalesef Türkçe dil desteği bulunmamakta. Desteklenen diller şu anda Almanca, İngilizce (UK), İspanyolca, Fransızca ve İtalyanca’dır.

Screaming Frog Modları Nelerdir ve Ne İşe Yarar?

Screaming Frog aracında kullanabileceğiniz 4 farklı tarama modu vardır. Bu modlar; Spider, List, SERP ve Compare olarak adlandırılır ve her birinin ayrı işlevleri bulunmaktadır.

screaming-frog-modlari

Aşağıda ayrı ayrı başlıklarla ayrılmış bölümden Screaming Frog’daki bu modların ne amaçla kullanıldığına dair detayları öğrenebilirsiniz.

Spider Modu

Screaming Frog’un Spider modu, bir internet sitesindeki tüm URL’leri keşfederek tarama gerçekleştirdiği yapıdır. Spider modundayken URL alanına yazdığınız internet sitesindeki tüm URL’lere Screaming Frog botları ziyaret yapmaya başlar ve keşfedilen her URL tarama sırasına eklenir. Böylece bir sonraki taranacak URL, Screaming Frog botları tarafından otomatik keşfedilir. Tüm URL’ler keşfedilene ve taranana denk tarama sürer. (Herhangi bir hariç tutma gibi ayar yapılmadığında)

List Modu

Screaming Frog’daki ikinci mod List olarak adlandırılan liste modudur. List modunda, Screaming Frog’a taranacak URL listesini manuel olarak yükleyerek, yapıştırarak veya bir site haritasından indirerek vermeniz gerekmektedir. Bu modda sadece verdiğiniz URL’ler için bir tarama gerçekleştirilir ve URL listenizde olmayan URL’ler keşfedilmez ve taranmaz. Screaming Frog’un List modu sayesinde bir sitedeki sadece bir bölüme ait URL’ler için tarama gerçekleştirmeniz mümkündür.

SERP Modu

SERP modu, internet sitenizdeki URL’lerinizin title ve description metinlerinin Google arama sonuçlarında nasıl göründüğüne dair bilgi edinmenizi sağlar. Buradaki SERP önizlemeleri ile birlikte URL’lerinizdeki title ve description metinlerinin arama sonuçlarında karakter sayısı veya piksel genişliği olarak ideal uzunluklara uyum sağlayıp sağlamadığını inceleyebilirsiniz. Screaming Frog’un SERP modunda herhangi bir tarama işlevi yoktur ve sadece verdiğiniz URL’ler için bir SERP önizlemesi sunulur.

Compare Modu

Screaming Frog’un dördüncü ve son modu olan Compare modu, güncel tarama dosyanızı daha önceden yaptığınız tarama dosyalarınızla kıyaslamanıza olanak sağlar. Bu sayede bir önceki taramanızda keşfedilen hataların yeni taramanızda da karşınıza çıkıp çıkmayacağını veya hatalarınızın ne oranda iyileştiğini görüntülemeniz mümkün olur. Screaming Frog’un Compare modunda tarama dosyalarınız arasındaki farkları “Change Detection” sekmesinden görüntüleyebilirsiniz. Ayrıca arayüzlerde güncel taramanızda artış gösteren hatalar “kırmızı” renkle, düşüş gösteren ve iyileşen sorunlar da “yeşil” olarak renklendirilir. Compare modu, sadece Memory Allocation ayarındaki Database Storage seçeneği etkinken çalışır.

Screaming Frog Menüleri ve Detaylar

Screaming Frog arayüzündeki üst menüde birçok işlem yapabileceğiniz alanlar bulunmaktadır. Sistem ayarlarından Screaming Frog destek ekibine ulaşmaya kadar geniş bir aralığı olan menü üzerinde birçok farklı işlev bulunmaktadır. Screaming Frog menüleriyle ilgili detayları aşağıdaki maddelerde inceleyebilirsiniz.

  • File menüsü, Standart dosya menüsüdür. Screaming Frog’da yeni bir tarama başlatmak, önceki taramalarınızı görüntülemek, son tarama dosyanızı açmak, mevcut taramayı temizlemek ve yapmış olduğunuz taramayı kaydetmek gibi olanaklar sunar.
  • Mode menüsü, Screaming Frog’un sunmuş olduğu 4 mod arasında geçiş yapmanızı sağlayan menüdür.
  • Configuration menüsü, Screaming Frog’da tarama öncesinde yapmak istediğiniz tüm özelleştirmeleri ve gelişmiş ayarları sunan menüdür. Birçok farklı kategoride ayar özelleştirmenize ve taramanızı daha gelişmiş hale çevirmenize yardımcı olacak bağlantılar içerir.
  • Bulk Export menüsü, Screaming Frog arayüzünde ana sekmeler ve alt sekmeler birbiriyle senkronize olarak çalışır ve iki alanda da oluşan verileri tek bir dosya üzerinde olacak şekilde dışa aktarmak için buradaki Bulk Export seçeneklerini kullanabilirsiniz.
  • Reports menüsü, Screaming Frog üzerinden gerçekleştirdiğiniz taramalarla ilgili raporları dışa aktarmanıza olanak sağlar. Birçok farklı kategoride rapor sunulan bu bölümdeki bağlantıları kullanarak dışa aktarma gerçekleştirebilirsiniz.
  • Sitemaps menüsü, Site haritalarıyla ilgili olarak ayar yapmanıza olanak sağlayan bu menü, hem XML Sitemap hem de Image Sitemap olarak iki ayrı bağlantıya sahiptir.
  • Visulations menüsü, Veri görselleştirme tarafında kullanabileceğiniz bu menü, Screaming Frog taraması sonrasında oluşan verileri görselleştirmeye yönelik seçenekler sunar.
  • Crawl Analysis menüsü, Yapmış olduğunuz bir tarama için bir analiz başlatmanıza, başlatılan bir analizi durdurmanıza veya Crawl Analysis özelliğini konfigüre etmenize olanak sağlar.
  • Licence menüsü, Screaming Frog lisansı satın almak veya satın aldığınız bir lisans kodunu etkinleştirmek için kullanabileceğiniz bağlantıları içerir.
  • Help menüsü, Screaming Frog hakkında yaşadığınız sorunlar veya ek ihtiyaçlarınıza yönelik Screaming Frog ekibinin sunduğu dökümantasyonlara erişmenize veya Screaming Frog destek ekibiyle iletişime geçmenize yönelik bağlantılar sunar.

Screaming Frog SEO Spider Nasıl Kullanılır?

Screaming Frog aracını kullanmak için ana ekranda üst bölümde yer alan “Enter URL to spider” alanına tarama yapmak istediğiniz internet sitesinin URL’ini yapıştırmanız ve devamında da “Start” butonuna basarak taramayı başlatmanız gerekmektedir. Start butonuna bastığınız andan itibaren Screaming Frog, belirttiğiniz internet sitesinin tüm URL’lerini ziyaret ederek bir veri kazıma (scrape) işlemine başlayacaktır. Tarama sürecini sağ üstteki yeşil barda yüzdelik olarak ve sağ en altta kalan URL sayısı olarak görüntüleyebilirsiniz.

screaming-frog-site-tarama

Taramak istediğiniz internet sitesinin toplam URL sayısına, sunucu performansına ve bilgisayarınızın performansına göre tarama hızı değişiklik gösterebilmektedir. Güncel tarama hızını, taramayı başlattıktan sonra yazılımın en altında yer alan “Average” ve “Current” bölümlerindeki saniye başına taranan URL sayısı olarak görebilirsiniz.

Yapacağınız bir tarama işlemini daha gelişmiş ve detaylı hale getirebilmek için, taramanızı başlatmadan önce üst menüde yer alan “Configuration” sekmesinden taramanızla ilgili tüm detayları özelleştirebilir ve gelişmiş araçları kullanabilirsiniz. Aşağıda, tarama öncesi gelişmiş konfigürasyonlar hakkında detaylı bilgiler bulunmaktadır.

Tarama Öncesi Uygulanabilecek Gelişmiş Konfigürasyonlar

Screaming Frog’da bir taramaya başlamadan önce yapacağınız taramayı çok daha geniş kapsamlı hale getirebilir ve özel konfigürasyonlarla gelişmiş bir tarama gerçekleştirebilirsiniz. Bunu yapmak için, taramaya başlamadan önce üst menüde yer alan Configuration menüsünde yer alan ayarları kullanabilirsiniz. Menüde yer alan Spider, Content, robots.txt, URL Rewriting, CDNs, Include, Exclude, Speed, User-Agent, HTTP Header, Custom Search, Custom Extraction, Custom Link Positions, Google Analytics API, Search Console API, PageSpeed Insights API, Majestic API, Ahrefs API, Moz API ve Authentication bölümlerinde yapacağınız ek ayarlar ve tercihlerle taramanızı daha kapsamlı yapabilirsiniz. Aşağıda bu alanların ne işe yaradıklarını ve nasıl kullanıldıklarını inceleyebilirsiniz.

Spider

Tarama öncesinde Screaming Frog’un ne kapsamda tarama yapmasını istediğinizi bu alandan yapacağını seçimlerle özelleştirebilirsiniz. Spider menüsüne tıkladığınızda açılan penceredeki “Crawl” alanından örneğin Hreflang etiketlerinin taranmasını isteyip istemediğinizi buradan yapacağınız seçimle belirleyebilirsiniz.

İkinci sekme olan “Extraction” bölümünde taramanızda sayfa içerisinden hariç tutmak istediğiniz bir alan varsa (Page Title, Meta Description, Meta Robots Tags vb.) bunları kaydedebilirsiniz.

Üçüncü sekmede yer alan “Limits” bölümü, yapılacak taramanın sınırlarını belirler. Bu bölümde toplam taranacak maksimum sayfa sayısı, tarama derinliği ve toplam taranacak yönlendirme zinciri gibi sınırlamaları özelleştirebilirsiniz.

screaming-frog-spider-configuration

Bir sonraki sekmede yer alan “Rendering” bölümü, yapılacak taramanın çeşidini belirlemenizi sağlar. Örneğin eğer JavaScript ile çalışan bir siteyi taramak istiyorsanız, buradaki Rendering seçeneğini “JavaScript” olarak seçmeniz gerekmektedir.,

Dördüncü sekmedeki “Advanced” bölümü, yapılacak taramada Canonical etiketlerinin veya noindex gibi engellemelerin kaale alınıp alınmayacağına dair özelleştirmeler yapmanızı sağlar.

Son sekmedeki “Preferences” bölümünden de Title, Description, H1, H2 ve URL gibi alanların varsayılan karakter uzunluğu ve piksel genişliği gibi değerlerini değiştirebilirsiniz.

Content Area

Content alanında yer alan Area bölümünden tarama yapacağınız internet sitesinde kullanılan içerik alanını kelime sayımı, kopyaya yakın olan içerik analizi ve dil bilgisi kontrolleri için belirleyebilirsiniz. Bu, bilinen ortak metinlerden kaçınarak bir sayfanın ana içerik alanına analizin odaklanmasına yardımcı olabilir.

Screaming Frog varsayılan olarak, yalnızca bir web sayfasının gövde HTML öğesinde bulunan metni dikkate alır. Ayrıca yine varsayılan olarak kullanılan içerik alanının sayfanın ana içeriğine odaklanmasına yardımcı olmak için hem navigation hem de footer bölümlerindeki HTML öğeleri hariç tutulur.

screaming-frog-content-area

Tüm web siteleri HTML5 semantik öğeleri kullanılarak oluşturulmaz ve bu yüzden bazı durumlarda bir sitedeki içerik alanını Screaming Frog’da daha da detaylandırabilmek için Content Area bölümünü özelleştirmeniz önerilir. Burada yapacağınız özelleştirmelerle birlikte içerik alanı için HTML öğelerini, sınıflarını veya kimliklerini özel olarak ekleyebilirsiniz.

Content Duplicates

Screaming Frog’da var olan Content bölümü, taranan bir sitenin sayfaları arasındaki içerik benzerliklerini ve kopya durumlarını kontrol ederek tarama sonuçlarında gösterir. Content Duplicates alanında yapacağınız özelleştirme ile birlikte varsayılan ayarlardan hariç olarak ekstra kontroller yapabilirsiniz.

screaming-frog-content-duplicates

Screaming Frog’un varsayılan ayarında sadece indekslenebilen sayfalar için kopya içerik kontrolü (Only Check Indexable Pages for Duplicates) seçeneği etkin durumdayken, içerik benzerliklerini ve kopyaya yakın durumda olan sayfaları kontrol eden (Enable Near Duplicates) bölümü pasif durumdadır. Burada yapacağınız özelleştirme ile örneğin içerik olarak kopya durumuna yakın olan sayfaların da kontrol edilmesini sağlayabilirsiniz.

Spelling & Grammar

Screaming Frog, yapılan bir taramada HTML sayfalarında yazım ve dil bilgisi kontrolleri yapabilmektedir. Screaming Frog’da yazım ve dil bilgisi kontrolleri ayarı, varsayılan olarak devre dışıdır. “Content” sekmesinde kontrol sonuçlarının görüntülenmesi için yazım ve dil bilgisi hatalarının ve ilgili “Spelling” ve “Grammar” seçeneklerinin etkinleştirilmesi gerekir.

Ayrıca Screaming Frog’daki Spelling & Grammar özelliği, kullanılan dili (HTML etiketi ile) otomatik olarak tanımlar, ayrıca yapılandırma için de gerektiğinde dili manuel olarak seçmenize de olanak tanır.

screaming-frog-spelling-grammar

Buradaki Spelling & Grammar özelliği, 39 dil desteklemektedir. Bu diller Arapça, Asturyasça, Belarusça, Bretonca, Katalanca, Çince, Danca, Flemenkçe, İngilizce (Avustralya, Kanada, Yeni Zelanda, Güney Afrika, ABD, İngiltere), Fransızca, Galiçyaca, Almanca (Avusturya, Almanya, İsviçre), Yunanca, İtalyanca, Japonca, Kmerce, Farsça (Afganistan, İran), Lehçe, Portekizce (Angola, Brezilya, Mozambik, Portekiz), Rumence, Rusça, Slovakça, Slovence, İspanyolca, İsveççe, Tagalogca, Tamilce ve Ukraynaca‘dır. Bu araçta, Screaming Frog şu anda Türkçe dilini desteklememektedir.

Robots.txt

Robots.txt bölümü, tarama yapacağınız internet sitesinin Robots.txt dosyasındaki bir engellemeden etkilenmeden veya bir Robots.txt komutunu kontrol etmek adına kullanabileceğiniz bir alandır.

screaming-frog-robots-txt-settings

Buradaki “Settings” kısmından Robots.txt dosyasındaki engellemelerin göz ardı edilerek veya buradaki kurallara uyularak tarama yapılmasını seçebilirsiniz.

screaming-frog-custom-robots-txt

Ayrıca Custom bölümünden de tamamen özel bir Robots.txt dosyası kaydederek dilediğiniz engellemelerin çalışıp çalışmadığını ve taramada nasıl bir rol oynadığını test edebilirsiniz.

URL Rewriting

Tarama sonuçlarında görmek istemediğiniz URL’leri belirtmek için URL Rewriting alanını kullanabilirsiniz. Burada karşınıza gelen penceredeki boş bölüme parametreleri her satırda bir tane olacak şekilde tarama sonuçlarında istemediğiniz URL’leri yazarak kaydetmeniz gerekmektedir.

Bu sayede tarama sonuçlarında örneğin https://www.site.com/?utm_source gibi parametreli bir URL’i https://www.site.com/şeklinde gösterilir. URL Rewriting alanında ayrıca Regex kullanarak da URL’lerin yeniden yazım işlemini yapabilirsiniz. Örneğin, http olan URL’leri https olarak göstermek için veya .com.tr domain uzantısında olan URL’leri .com domain uzantısında görebilmek için uygulayacağınız Regex kurallarıyla URL’leri yeniden yazım işlemi yapabilir ve tarama sonuçlarında görebilirsiniz.

screaming-frog-url-rewriting

URL Rewriting, “Spider” modunda bir taramanın başlangıcı olarak veya “List” modunda eklediğiniz URL’lere değil, sadece bir internet sitesinin taranması esnasında keşfettiğiniz URL’ler için uygulanır.

CDNs

CDN bölümü, tarama esnasında CDN servisinizin URL’lerini Screaming Frog’un dahili bağlantı olarak değerlendirmesini sağlamanız için kullanabileceğiniz bir özelliktir.

screaming-frog-cdns

Bu bölümden CDN’ler için dahili olarak ele alınacak bir domain listesi kaydedebilirsiniz. Yaptığınız bu işlem sonrasında CDN bağlantıları, Screaming Frog’daki “Internal” sekmesine dahil edilir ve daha fazla ayrıntı çıkarılır.

Include

Özellikle çok yüksek sayıda URL’e sahip sitelerde belirli bölümlerdeki URL’ler için tarama yapılacağı durumda, Screaming Frog’un “Include” özelliği kullanılabilir. Bu alanda her satıra bir kural gelecek şekilde regex üzerinden eşleştirme yapabilirsiniz.

screaming-frog-include-urls

Taramayı başlattığınız URL, bu özelliğin çalışması için regex ile eşleşen bir iç bağlantıya sahip olması gerekir, aksi takdirde Screaming Frog ilk URL’den sonra ikinci bir URL’i taramaya geçemez. Ayrıca Screaming Frog’da taramayı başlattığınız URL’in de buradaki eşleştirme kurallarınızın dahilinde olması gerekiyor.

Exclude

Tarama yaparken taranmasını istemediğiniz URL’leri ve dizinleri hariç tutmak için bu özelliği kullanabilirsiniz. Buradaki bölümde her satırda bir adet olacak şekilde engellemeler uygulayabilirsiniz. URL’leri taramadan hariç tutmanız için Regex dilini kullanmanız ve bu şekilde eşleştirme yapmanız gerekmektedir.

screaming-frog-exclude-urls

Buradan uygulayacağınız hariç tutmalar, Screaming Frog’da taramayı başlattığınız ilk URL’de işlev görmemekte. Hariç tutma ayarı, yalnızca tarama esnasında keşfedilen diğer URL’ler için uygulanır.

Speed

Screaming Frog’daki Configuration menüsünde yer alan Speed bölümünden yapacağınız taramanın maksimum iş parçacığı sayısını ve saniyede taranacak URL sayısını istediğiniz seviyelerde düzenleyebilirsiniz.

screaming-frog-spider-speed

Screaming Frog’un varsayılan ayarlarında maksimum iş parçacığı sayısı 5, saniye başına taranan URL sayısı 2 olarak belirlenmiştir. Tarayacağınız internet sitelerinin sunucu performansına göre tarama hızını düşürmeniz gerekebilir, aksi durumda saniye başına atılan istek sayısının yüksek olması durumunda 500 hatalarıyla karşılaşmanız olasıdır.

User-Agent

Taramaya başlamadan önce hangi User-Agent’i kullanarak sayfaları ziyaret edeceğinizi bu ayar ile birlikte özelleştirebilirsiniz. Taranacak bir internet sitesinin sunucu tarafındaki güvenlik ayarları, Screaming Frog User-Agent’ını engellemiş olabilir. Bu durumda Screaming Frog olarak User-Agent kullanırsanız, tarama gerçekleştiremeyeceksiniz.

screaming-frog-user-agent-configuration

User-Agent özelliği ile birlikte tarama gerçekleştirirken karşı sunucuda görünecek User-Agent’ı özelleştirerek örneğin Googlebot’u seçebilir ve böylece olası engellemelere takılmadan taramanızı gerçekleştirebilirsiniz. User-Agent’ı Googlebot olarak seçtiğinizde, yaptığınız taramada kullanıcı aracısı Googlebot olarak görünecektir.

Bu alanı güvenlik engellemelerinden kaçınmaktan hariç olarak belli User-Agent’larda sayfanızın nasıl göründüğünü ve render edilen alanların neler olduğunu da kontrol edebilirsiniz.

HTTP Header

HTTP Header seçeneği, Screaming Frog’da yaptığınız bir tarama sırasında tamamen özel bir HTTP Header istekleri sağlayarak taramanızı gerçekleştirmenizi sağlar.

screaming-frog-custom-http-headers

HTTP Header bölümünde yapacağınız özelleştirme ile birlikte dil, tanımlama bilgisi ve bölge bilgisi gibi yapılandırmalar gerçekleştirmeniz mümkündür.

Custom Search

Custom Search bölümü, Screaming Frog üzerinden bir sitenin kaynak kodunda istediğiniz herhangi bir şeyi aramanıza olanak sağlayan bir özelliktir. Custom Search bölümünde Text veya Regex olarak gireceğiniz bir değeri HTML’de, sayfa metninde, HTML’deki body alanında, HTML’deki head alanında veya içerik alanında arayabilirsiniz.

screaming-frog-custom-search

Girdiğiniz değerin HTML’de var olduğunu veya var olmadığını uygulayacağınız “Contains” veya “Does Not Contains” seçenekleriyle kontrol edebilirsiniz.

Custom Extraction

Custom Extraction bölümü, bir sitenin HTML’inde yer alan bir veriyi CSSPath, XPath veya Regex olarak kazımanıza olanak sağlar. Örneğin, bir e-ticaret sitesindeki ürün sayfalarında yer alan SKU kodlarını bu araç üzerinden yapacağınız CSSPath, XPath veya Regex ayarları ile toplu olarak elde edebilirsiniz.

screaming-frog-custom-extraction

Custom Extraction aracı, yalnızca 200 yanıt koduna sahip olan ve çalışan HTML sayfaları üzerinden veri kazımanıza olanak sağlar. Eğer statik HTML sayfasından hariç olarak render edilen HTML’den veri kazımak için JavaScript rendering moduna geçebilirsiniz.

Custom Link Positions

Screaming Frog, bir internet sayfasının içeriğinde, kenar çubuğunda (sidebar) veya footer alanlarının olup olmadığını kontrol eder ve bir sayfada keşfettiği her bağlantıyı konumuna göre sınıflandırır.

screaming-frog-custom-link-positions

Custom Link Positions aracı ile birlikte tarama yapacağınız bir internet sitesinin link pozisyonlarını sitenin yapısına göre özelleştirebilir ve Screaming Frog’daki “Inlinks” ve “Outlinks” bölümlerindeki link pozisyonlarını ifade eden XPath alanının doğru olarak çalışmasını sağlayabilirsiniz.

Google Analytics API

Google Analytics hesabınızı Screaming Frog ile bağlayarak, eskiye yönelik URL’lerinizle ilgili detaylı bir tarama da gerçekleştirebilirsiniz. Özellikle kapsamlı bir tarama gerçekleştirmek için Google Analytics’e de yansıyan URL’lerinizi taramaya dahil etmeniz, daha önceden var olan ama artık var olmayan URL’lerinizi keşfetmeniz açısından da önemlidir. Bu bağlantıyı yapmak için API Access menüsünden Google Analytics bölümüne tıklamanız ve açılan pencereden “Connect to New Account” butonuna tıklayarak Analytics hesabınızın bulunduğu Google hesabınızla bir bağlantı gerçekleştirmeniz gerekmektedir.

screaming-frog-google-analytics-entegrasyonu

Burada dikkat etmeniz gereken nokta, bağlantı esnasında doğru Analytics mülkünü ve görünümünü seçmenizdir. Daha sonrasında “Date Range” ve “Metrics” alanlarından Google Analytics’ten çekilecek verinin hangi tarih aralığında olmasını istediğinizi ve Screaming Frog’da görmek istediğiniz Analytics metriklerini seçebilirsiniz.

Search Console API

Search Console mülkünüzden veriler elde etmek ve tıpkı yukarıdaki Google Analytics bağlantısında olduğu gibi eskiye yönelik URL’leriniz için de bir kontrol gerçekleştirmek için Search Console API bağlantısını yapmanız gerekmektedir. Böylece daha önceden Google tarafından keşfedilip taranan fakat şu anda internet sitenizde bulunmayan URL’leriniz için de bir kontrol gerçekleştirebilirsiniz. Search Console bağlantısı için API Access menüsünden Google Search Console’a tıklamanız ve açılan pencereden “Connect to New Account” butonuna tıklayarak Search Console mülkünüzün bulunduğu Google hesabınızı seçerek sizden istenen izinleri vermeniz gerekmekte.

screaming-frog-google-search-console-entegrasyonu

Burada Search Console bağlantısını uygularken doğru mülkü seçtiğinizden emin olmalısınız, aksi durumda Search Console’dan eksik/hatalı veri gelecektir. Bağlantı sonrasında “Search Analytics” sekmesinden tarih aralığı, cihaz filtresi, ülke filtresi, query filtresi gibi tercihler yapabilirsiniz.

PageSpeed Insights API

Screaming Frog taramasıyla birlikte taranan URL’lerinizin PageSpeed Insights’tan elde edilen hız verilerini de görmek isterseniz, taramanızı başlatmadan önce API Access menüsünden PageSpeed Insights bölümüne tıklamanız ve sizden istenen “Secret Key” bilgisini girerek bağlantıyı kurmanız gerekmektedir.

screaming-frog-pagespeed-insights-entegrasyonu

Bu sayede taranan URL’lerinizin hız performansına dair metrikleri tarama sonuçlarınızda görmeniz mümkün hale gelecektir. PageSpeed Insights API bağlantısında yer alan “Metrics” bölümünden Mobil veya Masaüstü olarak tercih yapabilir ve hemen altındaki bölümden görmek istediğiniz verileri seçebilirsiniz.

Majestic API Bağlantısı

URL’lerinizle ilgili olarak Majestic üzerinden veriler görebilmek için Screaming Frog ile Majestic hesabınızı bağlamanız gerekmektedir. Bunun için API Access menüsünden Majestic alanına girmeniz ve daha sonrasında Majestic hesabınızla ilgili sizden istenen “Access Token” bilgisini doğru şekilde kaydetmeniz gerekmektedir.

screaming-frog-majestic-entegrasyonu

Bu sayede Majestic ile Screaming Frog bağlanacak ve tarama sonuç ekranında URL’lerinizle ilgili Majestic API üzerinden alınan verileri görebileceksiniz.

Ahrefs API Bağlantısı

Tarama sonuçlarınızda URL’lerinizle ilgili Ahrefs üzerinden elde edilen verileri görmek isterseniz, Ahrefs hesabınızı Screaming Frog ile bağlayabilirsiniz. API Access menüsündeki Ahrefs bölümüne tıkladığınızda, açılan pencerede Ahrefs hesabınızla bağlantı kurulabilmesi için “Access Token” bilgisi istenecektir.

screaming-frog-ahrefs-entegrasyonu

Doğru bir token girişi sonrasında Ahrefs API üzerinden URL’lerinizle ilgili verileri tarama sonuçlarınızda görebileceksiniz.

Moz API Bağlantısı

Taramanızda Moz üzerinden veri almak isterseniz, API Access menüsündeki Moz bölümünü kullanmanız gerekmektedir. Moz alanında Moz hesabınızla API bağlantısı kurmak için sizden istenen “Access ID” ve “Secret Key” bilgilerini doğru şekilde girmeniz gerekmektedir.

screaming-frog-moz-entegrasyonu

Bu sayede Moz hesabınız ile Screaming Frog bağlantısı kurulacak ve tarama sonuçlarında URL’lerinizle ilgili Moz üzerinden alınan veriler de görünecektir.

Authentication

Tarama yapmak istediğiniz internet sitesi, bir kullanıcı girişi sonrasında çalışıyorsa bu alanda yer alan “Forms Based” bölümünden sitenizin kullanıcı girişi URL’ini ve kullanıcı adı & şifre bilgilerini Screaming Frog’a kaydedebilirsiniz.

screaming-frog-authentication

Bu sayede tarama gerçekleştirilirken Screaming Frog botu öncelikle sitenize bir kullanıcıymış gibi giriş yaparak giriş ekranı sonrası gelen sayfalar için tarama gerçekleştirebilecek.

Screaming Frog Ana Sekmeleri ve Anlamları

Screaming Frog arayüzünde tarama verilerinizi gördüğünüz bölümde yer alan ana sekmeler, tarama esnasında ve sonunda URL’lerinizle ilgili farklı kategorilerde detayları görmenize olanak sağlar. Buradaki sekmelerde ağırlıklı olarak kaynak kodunuzdan elde edilen verileri farklı filtreler kullanarak detaylı şekilde görüntüleyebilir ve her sekmedeki verileri Excel formatında dışarıya aktarabilirsiniz.

screaming-frog-ana-sekmeleri

Screaming Frog’da ana sekmeler bölümünde Internal, External, Security, Response Codes, URL, Page Titles, Meta Description, Meta Keywords, H1, H2, Content, Images, Canonical, Pagination, Directives, Hreflang, JavaScript, AMP, Structured Data, Sitemaps, PageSpeed, Custom Search, Custom Extraction, Analytics, Search Console ve Link Metrics bulunmaktadır. Aşağıda bu sekmelere dair detayları görüntüleyebilirsiniz.

Internal

Screaming Frog’da bir internet sitesini taradığınızda, Internal sekmesinde taranan tüm iç bağlantıları görebilirsiniz. Burada listelenen bağlantılar yalnızca HTML sayfalarınız değil, site içerisindeki tüm URL’leri oluşturur. Yani Internal sekmesinde HTML, CSS, JS ve Image türündeki tüm. URL’leriniz listenelir. Ayrıca yan sütunlarda URL’lere dair HTTP yanıt kodu, title, description, canonical URL, heading etiketi, meta robots etiketleri, sayfanın boyutu, tarama derinliği seviyesi ve sayfa içindeki bağlantı sayısı gibi bilgileri görebilirsiniz. Yan panelden de iç bağlantılarınızı türüne göre (HTML, JavaScript, CSS, Image, PDF, Flash) filtreleyebilirsiniz.

External

External sekmesinde de taradığınız sitedeki sayfalardan dışarıya çıkan tüm bağlantılar listelenmektedir. Harici sitelere giden bağlantıları takip edebileceğiniz bu sekme üzerinde dışarıya giden bağlantıyla ilgili olarak URL, HTTP yanıt kodu, tarama derinliği seviyesi ve content type gibi bilgileri görmeniz mümkündür. Ayrıca sağ bölümden de filtreleme uygulayarak dışarıya giden bağlantıyı türüne göre (HTML, JavaScript, CSS, Image, PDF, Flash) filtreleyebilirsiniz. Bu sekme üzerinden bilginiz olmadan sitenizden dışarıya çıkan bağlantıları keşfedebilir ve hacklink saldırılarından korunabilirsiniz.

Security

Screaming Frog’daki Securiy sekmesi, taranan URL’leriniz arasında Internal (dahili) URL’leriniz için güvenlikle ilgili verileri gösterir. URL’lerinizde kullanılan güvenlik protokolleri ve etiketler hakkında bu sekmeden detayları görüntüleyebilirsiniz. Ayrıca yan panelde de HTTP URLs, HTTPS URLs, Mixed Content, Form URL Insecure, Form on HTTP URL, Unsafe Cross-Origin Links, Protocol-Relative Resource Links, Missing HSTS Header, Missing Content-Security-Policy Header, Missing X-Content-Type-Options Header, Missing X-Frame-Options Header, Missing Secure Referrer-Policy Header ve Bad Content Type gibi filtrelemeleri kullanarak URL’lerinizdeki güvenlik protokolleri hakkında çok daha detaylı incelemelerde bulunabilirsiniz.

Response Codes

Response Codes bölümü, tarama yaptığınız sitedeki tüm URL’lerin HTTP yanıt kodları hakkında bilgi veren bir bölümdür. Burada URL’lerinizin yaptığınız taramada hangi yanıt koduyla yanıt verdiğini gösterir. Ayrıca herhangi bir URL’inizde yönlendirme varsa, yönlendirmeye dair detaylar yan sütunlardaki Redirect URL ve Redirect Type alanlarında listelenir. Yine yan panelde bulunan bölümden, URL’lerinizle ilgili yanıt kodu filtrelerini (Blocked by Robots.txt, Blocked Resource, No Response, Success (2xx), Redirection (3xx), Redirection (JavaScript), Redirection (Meta Refresh), Client Error (4xx), Server Error (5xx)) uygulayarak örneğin sadece 4xx Client Error yanıtına sahip URL’lerinizi filtreleyebilirsiniz.

URL

Arayüzdeki URL sekmesi, tarama yaptığınız internet sitesindeki URL’lerle ilgili verileri detaylı olarak görebileceğiniz bir bölümdür. URL sekmesinde URL’lerinizle ilgili HTTP yanıt kodu, URL uzunluğu ve URL’in hash edilen versiyonu, Canonical URL ve URL’in encode edilen versiyonunu görüntüleyebilirsiniz. Ayrıca yan panelden yapacağınız filtrelemelerle URL’lerinizi Non ASCII Characters, Underscores, Uppercase, Multiple Slashes, Repetitive Path, Contains Space, Internal Search, Parameters, Broken Bookmark ve Over 115 Characters olarak filtreleyebilirsiniz.

Page Titles

Page Titles sekmesi, taranan tüm URL’lerinizin meta title etiketlerini görebileceğiniz alandır. Burada URL’lerinizin title metnini, title karakter sayısını ve title piksel genişliğini görebilirsiniz. Yan paneldeki filtreleri kullanarak da URL’leriniz için Missing Title, Duplicate Title, Over 60 Characters, Below 30 Characters, Over 561 Pixels, Below 200 Pixels, Sames as H1 ve Multiple gibi filtrelemeler yapabilirsiniz.

Meta Description

Meta Description bölümünden de taranan tüm URL’leriniz için meta description etiketlerini kontrol edebilirsiniz. Taranan URL’lerinizin meta description metni, meta description karakter sayısı, meta description piksel genişliği gibi bilgileri bu sekmede görüntüleyebilirsiniz. Ayrıca yan bölümdeki sekmeleri kullanarak da Missing Description, Duplicate Description, Over 155 Characters, Below 70 Characters, Over 1.011 Pixels, Below 400 Pixels ve Multiple gibi filtrelemeler yapabilirsiniz.

Meta Keywords

Meta Keywords sekmesi, sitenizdeki tüm URL’ler için kullandığınız meta keywords etiketiyle ilgili bilgiler sunan bir bölümdür. Buradaki sütunlarda URL’leriniz için meta keywords metnini ve meta keywords karakter sayısını görüntüleyebilirsiniz. Ek olarak yan bölümden de Missing Meta Keywords, Duplicate Meta Keywords ve Multiple gibi filtrelemeler yapabilirsiniz.

H1

H1 sekmesi, URL’lerinizde kullandığınız H1 etiketleri hakkında bilgileri görebileceğiniz alandır. Sayfalarınızdaki H1 etiketlerinin karakter sayısını ve sayfada bulunan toplam <h1> etiketi sayısını H1 sekmesindeki sütunlardan görüntüleyebilirsiniz. Ayrıca yan paneldeki Missing H1, Duplicate H1, Over 70 Characters ve Multiple gibi filtreleri kullanarak H1 etiketlerinizi bu durumlara göre filtreleyebilirsiniz.

H2

Tıpkı H1 sekmesinde olduğu gibi URL’lerinizde kullandığınız H2 etiketlerini de bu sekmede görüntüleyebilirsiniz. Buradaki sekmelerde URL’lerinizde tespit edilen tüm H2 etiketlerini, H2 etiketlerinizin karakter sayısını ve sayfada tespit edilen toplam <h2> etiketi sayısı listelenmektedir. Yan bölümden de H1 etiketinde de olduğu gibi Missing H1, Duplicate H1, Over 70 Characters ve Multiple şeklinde filtrelemeler yapabilirsiniz.

Content

Screaming Frog’daki Content sekmesi, taranan URL’lerinizdeki içerikle ilgili kelime sayısı, tekrar eden (kopya), tekrar etmeye yakın (içerik benzerliği yüksek olan) ve yazım ve dil bilgisi hatalarıyla ilgili ayrıntılar sunmaktadır. Seçtiğiniz bir URL’in sağ kısmındaki bu sütunlarda Word Count, Closest Similarity Match, No Near Duplicates, Total Language Errors, Spelling Errors, Grammar Errors ve Language gibi çeşitli verileri görebilirsiniz. Ayrıca sağ paneldeki Exact Duplicates, Near Duplicates, Low Content Pages, Spelling Errors ve Grammar Errors gibi filtrelemeleri kullanabilirsiniz.

Images

Images bölümü, taranan URL’lerinizde keşfedilen görselleri ve bu görseller hakkındaki çeşitli bilgileri içeren bir alandır. Keşfedilen bir görsel hakkında Image URL, Content Type, Size ve IMG Inlinks gibi bölümlerde çeşitli verileri görüntüleyebilirsiniz. Ek olarak sağdaki Over 100 KB, Missing Alt Text, Missing Alt Attribute ve Alt Text Over 100 Characters gibi filtreleri kullanabilir ve görsellerinizi bu kategorilerde ayrı ayrı inceleyebilirsiniz.

Canonical

Canonical bölümünde, taranan URL’lerinizde keşfedilen Canonical etiketleriyle ilgili detaylı bilgiler listelenir. Toplam tespit edilen Canonical URL sayısı ve Canonical etiketinin işaret ettiği URL gibi birçok detayı bu ekranda görebilirsiniz. Canonical sekmesinde ayrıca yan panelde bulunan Contains Canonical, Self Referencing, Canonicalised, Missing, Multiple ve Non-Indexable Canonical gibi filtreleri kullanarak da Canonical etiketlerinizle ilgili daha detaylı analiz yapabilirsiniz.

Pagination

Screaming Frog’da sayfalanmış URL’lerinizle ilgili detayları Pagination sekmesinde görüntüleyebilirsiniz. Taranan URL’leriniz arasında sayfalandırılmış URL’leriniz mevcutsa, bu URL’lerinizde kullanılan rel=”next”, rel=”prev”, Canonical URL ve Meta Robots etiketleri gibi detayları inceleyebilirsiniz. Ayrıca yine sağ bölümden de Contains Pagination, First Page, Paginated 2+ Pages, Pagination URL Not in Anchor Tag, Non-200 Pagination URLs, Unlinked Pagination URLs, Non-Indexable, Multiple Pagination URLs, Pagination Loop ve Sequence Error gibi filtrelemeler yapabilirsiniz.

Directives

Screaming Frog’daki Directives sekmesi, taranan URL’lerinizin HTTP Header bilgisindeki meta robots ve X-Robots-Tag ile ilgili verileri gösterir. Buradaki robot yönergeleri ile birlikte içeriğinizin ve URL’lerinizin Google gibi arama motorlarında nasıl görüntüleneceği kontrol edilir. Ayrıca yan paneldeki sekmelerden de Index, Noindex, Follow, Nofollow, None, NoArchive, NoSnippet, Max-Snippet, Max-Image-Preview, Max-Video-Preview, NoODP, NoYDIR, NoImageIndex, NoTranslate, Unavailable_After ve Refresh gibi filtrelemeleri kullanarak URL’leriniz için çok daha gelişmiş incelemeler gerçekleştirebilirsiniz.

Hreflang

Özellikle çok dilli siteler için Screaming Frog’daki Hreflang sekmesinin önemi büyüktür. Tarama gerçekleştirdiğiniz URL’lerinizde kullanılan hreflang alternate etiketlerini ve etiketlerle ilgili detayları buradaki ekranda görüntüleyebilirsiniz. URL’lerinizde keşfedilen toplam hreflang etiketi sayısını, hreflang dil kodlarını ve hreflang URL’lerini ayrı ayrı görüntüleyebilirsiniz. Ayrıca yan paneldeki sekmeleri kullanarak da Contains Hreflang, Non-200 Hreflang URLs, Unlinked Hreflang URLs, Missing Return Links, Inconsistent Language & Region Return Links, Non-Canonical Return Links, Noindex Return Links, Incorrect Language & Region Codes, Multiple Entries, Missing Self Reference, Not Using Canonical, Missing X-Default ve Missing olarak filtreleyebilirsiniz.

JavaScript

JavaScript sekmesi, Client Side olarak JavaScript kullanan web sitelerinin denetlenmesiyle ilgili yaygın sorunlara ilişkin veriler ve filtreler içeren bir bölümdür. JavaScript Rendering modunda veri sunan bu bölümde, Screaming Frog ilk olarak sayfaları bir tarayıcıda olduğu gibi aynı şekilde oluşturarak JavaScript içeriğini, bağlantılarını ve diğer bağımlılıkları listelemektedir. Ayrıca yan panelde bulunan Pages with Blocked Resources, Contains  JavaScript Links, Contains JavaScript Content, Noindex Only in Original HTML, Nofollow Only in Original HTML, Canonical Only in Rendered HTML, Canonical Mismatch, Page Title Only in Rendered HTML, Page Title Updated by JavaScript, Meta Description Only in Rendered HTML, Meta Description Updated by JavaScript, H1 Only in Rendered HTML, H1 Updated by JavaScript, Uses Old AJAX Crawling Scheme URLs ve Uses Old AJAX Crawling Scheme Meta Fragment Tag gibi filtreleri kullanarak çok daha detaylı JavaScript analizi gerçekleştirebilirsiniz.

AMP

AMP sekmesinde taranan URL’leriniz arasında AMP kullanılıyorsa, burada detaylı şekilde AMP ile ilgili verileri görebilirsiniz. URL’lerinizin işaret ettiği AMP sayfalarınızın doğru şekilde çalışıp çalışmadığını ve AMP sayfalarınızla ilgili analizleri bu sekmeden elde edeceğiniz detaylarla yapabilirsiniz. Ayrıca yan panelde bulunan Non-200 Response, Missing Non-AMP Return Link, Missing Canonical to Non-AMP, Non-Indexable Canonical, Indexable, Non-Indexable, Missing <html amp> Tag, Missing/Invalid <!doctype html> Tag, Missing <head> Tag, Missing <body> Tag, Missing Canonical, Missing/Invalid <meta charset> Tag, Missing/Invalid <meta viewport> Tag, Missing/Invalid AMP Script, Missing/Invalid AMP Boilerplate, Containt Disallowed HTML ve Other Validation Errors gibi filtreleri kullanarak AMP sayfalarınız hakkında çok daha gelişmiş incelemelerde bulunabilirsiniz.

Structured Data

Tarama başlatmadan önce URL’lerinizde kullanılan Yapısal Veri İşaretlemeleri kodlarını görüntülemek adına bir ayar yaptıysanız, bu sekme üzerinde hangi URL2inizde hangi Structured Data kodunun tespit edildiğini ve tespit edilen kodlarda bir hata olup olmadığını görüntüleyebilirsiniz. Ayrıca yan sekmede bulunan bölümden de Contains Structured Data, Missing, Validation Errors, Validation Warnings, Parse Errors, Microdata URLs, JSON-LD URLs ve RDFa URLs gibi çeşitli filtreleri kullanarak Yapısal Veri İşaretlemesi kodlarınız hakkında detaylı inceleme yapabilirsiniz.

Sitemaps

Screaming Frog taramanızı başlatmadan önce konfigürasyon bölümünde site haritalarınızın taranması ve incelenmesi için gerekli olan ayarı etkinleştirdiyseniz, bu bölümde site haritalarınızla ilgili detaylı veriler görünecektir. Yan bölümdeki panelden de site haritalarınızdaki URL’lerle ilgili URLs in Sitemap, URLs not in Sitemap, Orphan URLs, Non-Indexable URLs in Sitemap, URLs in Multiple Sitemaps, XML Sitemap with over 50k URLs ve XML Sitemap over 50MB gibi filtreler uygulayabilirsiniz.

PageSpeed

PageSpeed sekmesi, adından da anlaşılacağı üzere sitenizdeki tüm URL’ler hakkında sayfa hız performansına dair veriler görebileceğiniz bölümdür. URL’leriniz hakkında hız performans verilerini görebilmek için taramayı başlatmadan önce konfigürasyon bölümünden PageSpeed Insights API’yi etkinleştirmeniz gerekir. Ayrıca yan panelde URL’lerinizin hız performansıyla ilgili birçok farklı filtreyi de uygulayarak daha detaylı analizler gerçekleştirebilirsiniz.

Custom Search

Screaming Frog taraması başlatmadan önce URL’lerinizin kaynak HTML’inde bir veri aramaya yönelik ayarlama yaptıysanız, Custom Search bölümünde hangi URL’lerinizde ilgili verinin tespit edilip edilmediğini görüntüleyebilirsiniz.

Custom Extraction

Tarama başlatmadan önce bir veri kazıma (scrape) işlemi yapmak adına Custom Extraction üzerinden XPath, CSSPath veya Regex ile bir ayarlama yaptıysanız, bu sekmede URL’lerinizde veri kazıma için tanımladığınız bilgilere dair sonuçları görüntüleyebilirsiniz.

Analytics

Screaming Frog taramasını başlatmadan önce, Google Analytics hesabınızla Screaming Frog’u bağladıysanız, Analytics’ten elde edilen veriler bu sekmede listelenecektir. Analytics sekmesinde URL’lerinizle ilgili GA Sessions, GA % New Sessions, GA Users, GA New Users, GA Bounce Rate, GA Page Views Per Session, GA Avg Session Duration, GA Goal Conversion Rate, GA Goal Completions All, GA Goal Value All ve GA Page Value gibi Analytics üzerinden gelen verileri görüntüleyebilirsiniz. Ayrıca yine yan paneldeki sekmelerden de URL’leriniz için Sessions Above 0, Bounce Rate Above 70%, No GA Data, Non-Indexable with GA Data ve Orphan URLs gibi filtrelemeler yapabilirsiniz.

Search Console

Eğer tarama işlemine başlamadan önce Screaming Frog’u Search Console mülkünüzle bağladıysanız, Search Console’dan elde edilen veriler bu sekmede listelenecektir. Search Console’dan URL’leriniz için elde edilen Click, Impression, CTR ve Position gibi verileri bu sekmede görebilirsiniz. Yan panelde bulunan sekmelerden de URL’lerinizle ilgili Clicks Above 0, No Search Analytics Data, Non-Indexable with Search Analytics Data, Orphan URLs, URL is Not on Google, Indexable URL Not Indexed, URL is on Google But Has Issues, User-Declared Canonical Not Selected, Page is Not Mobile Friendly, AMP URL Invalid ve Rich Result Invalid gibi filtrelemeler yapabilirsiniz.

Link Metrics

Eğer Screaming Frog taramanızdan önce Majestic, Ahrefs veya Moz gibi platformlar için API bağlantısı gerçekleştirdiyseniz, URL’lerinizle ilgili çeşitli link metrikleri bu ekranda listelenecektir. Burada listelenen veriler, 3 platform için de ayrı ayrı gösterilmektedir ve URL’leriniz hakkında Backlink, Anchor Text, Trust Flow Değeri, Social Links ve EDU&GOV Links gibi daha birçok metrikten veri sunulmaktadır.

Screaming Frog Yan Sekmeler ve Anlamları

Screaming Frog arayüzünde ekranın sağ kısmında bir sidebar mantığında konumlanan bir yan panel bulunmaktadır.

screaming-frog-yan-sekmeleri

Bu alanda Overview, Site Structure, Response Times, API ve Spelling & Grammar adında sekmeler yer almaktadır. Her sekmenin içinde tarama ile ilgili detaylar listelenmektedir. Aşağıda sekmelerin içeriğiyle ilgili ekstra bilgi edinebilirsiniz.

Overview

Overview alanında gerçekleştirilen taramaya dair tüm detaylar yer almaktadır. Arayüzdeki ana sekmelerle ilgili olan tüm alt kırılımlar bu alanda listelenmektedir. Gerçekleşen taramanın hem bir genel özeti, hem de tüm tarama verileri sekme sekme bu alanda görüntülenebilmektedir.

Site Structure

Site Structure alanı, tarama yaptığınız internet sitesinin URL’lerini alt alta listeleyerek site mimarisi ve site yapısı hakkında detayları gösteren bir bölümdür. Burada belli dizinlerde yer alan URL’ler, klasörlere ayrılmış olarak düzenli şekilde gösterilir.

Bu alanda üst kısımda yer alan ve + butonlarıyla tarama derinliğini düşürebilir veya artırabilirsiniz. Ayrıca aynı alanda sağ kısımda yer alan “View” bölümündeki seçeneklerden “Crawl Depth” seçeneğine tıklayarak aşağıda listelenen URL’lerinizin tarama derinliği ve hangi seviyede tarandığına dair verileri görebilirsiniz.

Response Times

Response Times alanı, tarama yapılan URL’lerden elde edilen sunucunun yanıt verme süresini ifade eder. Bu alanda URL’lerin 0-1 saniye, 1-2 saniye, 3-4 saniye ve 4-5 saniye gibi gruplandırılmış olarak görebilir ve hangi yanıt süresi aralığında ne kadar URL’inizin olduğunu görebilirsiniz. Ayrıca bir yanıt süresi aralığına dahil olan URL’lerin, tüm URL’lere oranını da görüntüleyebilirsiniz.

API

Screaming Frog’daki Configuration bölümünde yer alan API Access menüsündeki platformlara tarama öncesinde bir API bağlantısı gerçekleştirdiyseniz, bu bölümde API bağlantılarının ilerleme yüzdesini ve hata sayısını görüntüleyebilirsiniz. Ayrıca platformların yanında bulunan çark simgesine tıklayarak yeni hesap bağlama işlemini de yapabilirsiniz.

Spelling & Grammar

Screaming Frog’da eğer Configuration bölümünde Content menüsünün altında bulunan Spelling & Grammar aracını etkinleştirdiyseniz, bu alanda URL’lerinizdeki içeriklerle ilgili yapılan yazım ve dil bilgisi kontrollerine dair detayları görebilirsiniz.

Screaming Frog Alt Sekmeler ve Anlamları

Screaming Frog’da taranan URL’ler ile ilgili çok daha fazla ayrıntı görebilmeniz için, arayüzün alt kısmındaki sekmeleri kullanabilirsiniz. Burada sunulan birçok veriyle birlikte sayfalarınıza dair detaylı sonuçlar elde edebilirsiniz.

screaming-frog-alt-sekmeleri

Aşağıda buradaki sekmelerin neler olduğuna ve ne işe yaradığına dair detaylı bilgiler yer almakta.

URL Details

URL Details bölümü, üst kısımda taranmış bir URL’i seçtiğinizde veri oluşturan ve seçtiğiniz URL için yanıt kodu, indekslenebilirlik durumu, başlık etiketi, sunucu yanıt süresi, tarama derinliğindeki seviyesi ve son güncellenme tarihi gibi verileri sunmaktadır.

Inlinks

Inlinks bölümü, taranmış URL’ler arasından bir veya birden fazla URL’i seçtiğinizde, seçtiğiniz URL’lerin site içerisinde hangi sayfalarınızdan iç bağlantılar aldığına dair detayları göstermektedir. Bu alanda “From” sütunu, seçtiğiniz URL’in hangi sayfadan bağlantı aldığını ifade eder. Ayrıca “Type” sütununda iç bağlantının hangi türde verildiğini (Hyperlink, Canonical URL, Redirect vb.) gösterir.

Inlinks bölümünde tablonun geri kalanında bağlantıya dair anchor text, alt text, follow, rel, status code ve link path gibi ek detayları da görüntülemek mümkündür.

Outlinks

Outlinks bölümü, üst kısımda taranmış URL’ler arasından seçtiğiniz bir veya daha fazla URL için dışarıya çıkan bağlantıları listeleyen bir bölümdür. Özellikle hacklink gibi konular için kontrol yapmanıza olanak sağlayan Outlinks bölümünde, Inlinks kısmında olduğu gibi bir bağlantının anchor text, alt text, follow, rel, status code ve link path gibi detaylarını görmeniz mümkündür.

Image Details

Image Details bölümü, sitenizde taranan görsellere dair teknik detayları ve görselin önizlemesini görebileceğiniz bir bölümdür. Seçilen görselin site içerisinde hangi sayfalarda bulunduğu, görselin tam URL’i, görsel alt etiketi ve görselin bir önizlemesi bu alanda sunulmaktadır.

Resources

Resources alanı, üst kısımda seçtiğiniz bir URL için yüklenen CSS, JS ve Image gibi kaynakları listelemektedir. Bu alanı kullanarak bir veya birden fazla URL için yüklenen CSS, JS ve Image dosyalarını ve tam URL hallerini görüntüleyebilirsiniz.

SERP Snippet

Taranan bir URL’i seçerek alt bölümdeki SERP Snippet alanına geçtiğinizde ilgili URL’in Google arama sonuçlarından bir indeks önizlemesini görüntüleyebilirsiniz. Seçtiğiniz taranan bir URL’in title, description ve rich snippet gibi detaylarını SERP önizlemesi ile görebilirsiniz. Sağ kısımda yer alan küçük tabloda da seçtiğiniz URL’in title ve description metinlerinin karakter sayısını, fazla gelen karakter sayısını ve piksel genişliğini inceleyebilirsiniz.

Ayrıca alt kısmında yer alan özelleştirme seçenekleri sayesinde de seçtiğiniz URL için örnek SERP önizlemesini manuel olarak değiştirebilirsiniz. Title, description, description prefix ve rich snippets gibi ek bilgiler ekleyerek SERP’te nasıl görüneceğini bir önizleme olarak görebilirsiniz.

Rendered Page

Rendered Page bölümü, JavaScript kullanılarak oluşturulmuş sayfaların render edilme sonrasında nasıl göründüğüne dair detayları göstermektedir. Seçtiğiniz bir URL’in render edilmiş halinin tam boyda bir kopya görüntüsü sunulmaktadır. Bu alanı kullanarak JavaScript kullanan siteler için render edilme sorunlarının çözülmesini sağlayabilirsiniz.

Rendered Page bölümünün aktifleşmesi için, Screaming Frog’da Configuration menüsü altında yer alan Spider bölümündeki Extraction sekmesinde yer alan “Store HTML” ve “Store Rendered HTML” seçeneklerini aktifleştirmeniz gerekmektedir.

View Source

View Source alanı, taranan bir URL’in kaynak kodunu görebilmek için kullanabileceğiniz bir bölümdür. Kaynak kodun üstünde yer alan açılır menü ile birlikte HTML veya Visible Content olarak iki farklı şekilde sayfaya dair detayları görüntüleyebilirsiniz. Ayrıca aynı bölümde yer alan arama kutucuğu ile birlikte kaynak kodda aradığınız bir ifadeyi kolayca bulabilirsiniz.

HTTP Headers

Screaming Frog’da yer alan HTTP Headers alanı, taraması yapılmış bir URL hakkında üstbilgi sunan bir bölümdür. Bu alanda sunucuya atılan istekten sonra HTML oluşmadan önce gelen çeşitli bilgiler yer almaktadır. Örneğin Cache-Control, User-Agent ve content-type gibi mikro bilgiler, HTTP Headers bölümü üzerinden kontrol edilebilir.

Cookies

Screaming Frog’da yer alan Cookies bölümü, tarama yaptığınız sayfaların kullandığı Cookie’ler hakkında bilgilendirme sağlayan bir alandır. Özellikle GDPR konusunda hangi çerezleri kullandığınıza dair daha kolay bir tespit otomasyonu kurmanızı sağlar.

Cookies alanında sayfalarınızda kullanılan çerezler hakkında Cookie Name, Cookie Value, Domain, Path, Expiration Time, Secure, HttpOnly ve Cookie’nin tespit edildiği URL gibi bilgileri görmeniz mümkündür.

Duplicate Details

Duplicate Details bölümü, sayfalarınız arasındaki içerik benzerliğini kontrol eden bir alandır. İçerik benzerlik oranınız Screaming Frog’un varsayılan ayarı olan %90’ın üzerindeyse, iki sayfa duplicate durumuna çok yakın olarak değerlendirilir. Bu durumda yapılması gereken sayfalarınızdaki içerikleri ayrı ayrı özgün şekilde değiştirmektir.

Screaming Frog’un varsayılan olarak kullandığı “Near Duplicates” oranını değiştirmek için Configuration menüsünde bulunan Content alanından Duplicates sekmesine tıklamanız ve açılan pencerede “Enable Near Duplicates” seçeneğini aktifleştirerek hemen altındaki oran bilgisini %90’dan istediğiniz seviye olacak şekilde düzenlemeniz gerekmektedir.

Structured Data Details

Taranan URL’ler arasından seçtiğiniz bir URL için Yapısal Veri İşaretlemesi’ne dair verileri görüntülemek için bu bölümü kullanabilirsiniz. Sayfanızda kullandığınız Yapısal Veri İşaretlemeleri’ne dair detayları görüntüleyebilir ve hatalı olan kısımları kolayca tespit edebilirsiniz.

Structured Data alanını kullanabilmek için Screaming Frog’da Configuration menüsü altında yer alan Spider bölümündeki Extraction sekmesinde yer alan “JSON-LD”, “Microdata”, “RDFa” ve “Schema.org Validation” bölümlerini etkinleştirmeniz gerekmektedir.

PageSpeed Details

URL’lerinizin hız performansına dair verileri görüntülemek için sekmeler arasında yer alan PageSpeed Details bölümünü kullanabilirsiniz. Taranan URL’ler arasından seçtiğiniz bir URL için, Google PageSpeed Insights & Lighthouse üzerinden alınan verileri inceleyebilir ve sayfanızın her performansına dair tüm detayları görüntüleyebilirsiniz.

Sayfalarınızın hız performansına dair detayları görüntüleyebilmek için Screaming Frog’da Configuration menüsü altında yer alan API Access alanından PageSpeed Insights bağlantısını sorunsuz bir şekilde yapmanız gerekmektedir.

Spelling & Grammar Details

Taranan bir URL’inizin içeriği için yazım ve dil bilgisi kontrollerinde bulunmak adına Spelling & Grammar Details alanını kullanabilirsiniz. Desteklenen dillerde bir içeriğiniz varsa, sayfalarınızdaki içerikler için detaylı bir denetim gerçekleştirebilirsiniz.

Screaming Frog Hakkında Sıkça Sorulan Sorular

Screaming Frog Sitemi Neden Taramıyor?

Screaming Frog’un bir siteyi taraması için herhangi bir güvenlik duvarı engellemesine veya Screaming Frog botlarına yönelik bir engellemeye takılmaması gerekir. Özellikle Robots.txt dosyanız üzerinde botlara yönelik bir engelleme mevcutsa, Screaming Frog botları sitenizi tarayamayacaktır. Bu sebepten dolayı Screaming Frog’daki Configuration menüsü altında yer alan Robots.txt bölümünden Robots.txt komutlarını göz ardı etme seçeneğini kullanabilirsiniz.

İkinci olarak, Screaming Frog botları sunucunuzda aktif olan bir güvenlik duvarı (firewall) engellemesine de takılıyor olabilir. Bu durumda da kullandığınız güvenlik duvarının ayarlarından Screaming Frog botlarını whitelist’a eklemeniz ve Screaming Frog botlarına izin vermeniz gerekmektedir. Screaming Frog’un internet sitenizi neden taramadığına dair ek kontroller için https://www.screamingfrog.co.uk/seo-spider/faq/#why-wont-the-seo-spider-crawl-my-website adresini ziyaret edebilirsiniz.

Screaming Frog Lisans Yenilemesi Nasıl Yapılır?

Var olan fakat süresi biten bir Screaming Frog lisansını yenilemek için https://www.screamingfrog.co.uk/login/ adresinden lisansı satın aldığınız hesaba giriş yapmanız ve lisansınızı ödeme yaparak yenilemeniz gerekmektedir.

Screaming Frog Lisansını Diğer Bilgisayarımda Kullanabilir Miyim?

Screaming Frog lisansını diğer bilgisayarınızda da kullanabilirsiniz. Konuyla ilgili Screaming Frog yardım sayfalarında lisansınızı birden fazla bilgisayarda kullanabileceğinize izin verildiği bilgisi yer almaktadır.

Bir Lisansı Kaç Kullanıcının Kullanmasına İzin Verilir?

Screaming Frog için eğer 1 lisans satın aldıysanız, sadece bir kullanıcının kullanmasına izin verilir. İkinci bir kullanıcı için ayrı bir lisans satın almanız gerekiyor.

Ek Kaynaklar

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

SEO 22 Nisan 2022

Kapsamlı Google PageSpeed Insights Rehberi

Anıl Zengin

PageSpeed Insights, Google’ın ücretsiz olarak kullanıma sunduğu bir sayfa hız testi aracıdır. PageSpeed Insights üzerinden bir sayfanın açılış hızı ile ilgili güncel durumunu öğrenebilir ve aynı zamanda hız performansını iyileştirmeye yönelik önerileri ve uygulanması gereken çalışmaları görüntüleyebilirsiniz. Hız testi sonuç sayfasında mobil ve masaüstü için hız performansına yönelik veriler görebileceğiniz PageSpeed Insights aracında Core Web Vitals (Sayfa Deneyimi) metriklerindeki performansa dair detaylar da sunuluyor. Hazırladığım bu rehberde, PageSpeed Insights aracının kullanımına dair tüm detayları, metrikleri, test sonuçlarındaki hata ve geliştirme önerilerine dair bilgileri derledim.

Google PageSpeed Insights Nedir?

PageSpeed Insights, Google’ın ilk olarak 2010 yılında tanıttığı, internet sayfalarının hız performansına dair kontrollerin yapılmasına olanak sağlayan ve hız performansının optimize edilmesine yönelik öneriler sunan bir araçtır.

Tamamen ücretsiz şekilde kullanımda olan PageSpeed Insights aracı üzerinden bir URL için hız performansı kontrolü yapıldığında hem mobil hem de masaüstü platformdaki performansa yönelik çıktılar görmek mümkündür. Google, bu araç üzerinde mobil ve masaüstü cihazlardaki performansa göre 100 üzerinden bir puanlama yapar ve beraberinde skorların hesaplanmasında rol oynayan başarısız ve başarılı olunan konulara dair detaylar sunar.

Hız performansını optimize etmeye yönelik farklı başlıklar altında iyileştirme önerilerinin de sunulduğu PageSpeed Insights aracı, Core Web Vitals (Sayfa Deneyimi) metriklerine yönelik de çeşitli veriler sunabilmektedir. Araç üzerinde farklı bölümlerde hem Chrome kullanan ziyaretçilerden elde edilen (Field Data) gerçek kullanıcı verileri hem de Google tarafından simüle edilmiş ortamda (Lab Data) gerçekleştirilen yüklemenin sonucuna dair veriler sunulur.

Core Web Vitals bölümündeki veriler arasında First Contentful Paint, Speed Index, Largest Contenful Paint, Time to Interactive, Total Blocking Time ve Cumulative Layout Shift gibi metrikler bulunur ve hem gerçek zamanlı hem de simüle edilmiş olarak verileri görmek mümkündür.

PageSpeed Insights’ta Hız Skoru Hesaplaması Nasıl Yapılıyor?

PageSpeed Insights aracı, hız testi sonu ekranında mobil ve masaüstü olarak iki sekmede veriler sunar. Arayüzde mobil ve masaüstü için ayrı ayrı bir puanlama da yapılır. Hız testi sonucunda metriklerdeki veriler kullanılarak arka planda bir hesaplama çalıştırılır ve tahmini olarak 100 üzerinden bir puanlama gerçekleştirilir.

Google’ın belirttiğine göre, sonuç ekranında gösterilen performans puanı, metrik puanlarının ağırlıklı ortalamasıdır. Hesaplama esnasında daha kritik olan ve daha fazla önem sahibi olan hız metrikleri, buradaki skorun hesaplanmasında daha fazla katsayıya sahiptir. Yani hız testi sonuç ekranında görülen First Contentful Paint metriği ile Total Blocking Time metriğinin performans skoru hesaplamasındaki katsayıları birbirinden farklıdır.

Google, Lighthouse 8 güncellemesi ile birlikte güncellenen hız skoru hesaplama katsayısı dağılımını aşağıdaki gibi ifade ediyor;

Kontrol Adı Puanlamadaki Payı
First Contentful Paint 10%
Speed Index 10%
Largest Contentful Paint 25%
Time to Interactive 10%
Total Blocking Time 30%
Cumulative Layout Shift 15%

Bunun haricinde, Google’ın Lighthouse & PageSpeed Insights üzerindeki puanlama hesabını aşağıdaki bağlantıda sunulan resmi “Lighthouse Score Calculator” aracı üzerinden test edebilirsiniz:

https://googlechrome.github.io/lighthouse/scorecalc/

Hız Skoru ve Renk Dağılımı

PageSpeed Insights’ta yapılan bir hız testi sonrasında sonuç ekranında mobil ve masaüstü hız performansındaki duruma göre bir hesaplama kullanılır ve metriklerin değerlerine göre 100 üzerinden puanlama yapılır. Sonuç ekranında 100 üzerinden değerlenen performans skorları, seviyesine göre renklendirilerek kullanıcılara sunulur.

google-pagespeed-insights-hiz-skorlari

Aşağıda puan aralıklarını ve kullanılan renk bilgilerini görüntüleyebilirsiniz:

  • 0 – 49 (kırmızı): Zayıf
  • 50 – 89 (turuncu): İyileştirme Gerekiyor
  • 90 – 100 (yeşil): İyi

Ziyaretçileriniz için en iyi sayfa deneyimini sağlamak için 90-100 aralığında iyi bir puan üzerine çalışmalar yapılmalıdır. 100 tam puan elde etmek için zor olabilecek çalışmalar yapmak gerekir ve bu çalışmalar ciddi efor gerektirir. Zira hız skorunu 99’dan 100’e kadar geliştirmek, hız skorunu 90’dan 94’e yükseltmek için aynı iyileştirme eforunu gerektirir.

Google PageSpeed Insights Nasıl Kullanılır?

PageSpeed Insights aracını kullanmak için ilk olarak “https://pagespeed.web.dev/” adresini ziyaret etmelisiniz. İkinci aşamada karşınıza gelen “Web sayfası URL’si girin” bölümüne test etmek istediğiniz URL’i yazın ve “Analiz Et” butonuna basın.

google-pagespeed-insights-1

Performans analizi çalıştırılıyor” yazısıyla birlikte araç çalışmaya başlayacak ve sitenizin hız performansına dair veriler toplanacak. Hız testi sonuçlandığında da aynı ekran güncellenecek ve sayfa hızına dair metrikler ve değerler görünecek.

Bu ekranda mobil ve masaüstü için ayrı iki sayfada metrikleri ve değerlerini görmek mümkündür. Yukarıdaki mobil ve masaüstü sekmelerini kullanarak iki cihaz üzerindeki hız performansınıza dair verileri görebilirsiniz.

google-pagespeed-insights-2

Fırsatlar ve Teşhis

Bunların dışında sayfanın alt bölümünde “Fırsatlar” bölümünde sayfanızın daha hızlı yüklenmesine yönelik çeşitli öneriler sunulur. Bu bölümdeki sekmeleri genişlettiğinizde sitenizden alınan gerçek örnekleri ve çalışmayı gerçekleştirdiğinizde karşılığında sağlanacak tasarruf miktarını görüntüleyebilirsiniz.

google-pagespeed-insights-firsatlar-ve-teshisler

Fırsatlar bölümünün alt kısmında konumlanan “Teşhis” başlığı altındaki maddeler de performansınız hakkında daha fazla bilgi sunar ve geliştirme yapmanız için önerilerde bulunur. İki alanda da sunulan iyileştirme önerileri, üst kısımda gördüğünüz ve 100 üzerinden değerlendirilen performans skoruna doğrudan bir katkıda bulunmaz.

Başarılı Denetimler

Son olarak sayfanın en alt bölümünde de “Başarılı Denetimler” başlığı altında hız performansınızda olumlu olarak tespit edilen maddeler sunulur. Burada listelenen hız kontrollerinde sitenizin geçer not aldığı konuları görebilirsiniz.

google-pagespeed-insights-basarili-denetimler

Core Web Vitals (Sayfa Deneyimi) Denetimi

Öte yandan Core Web Vitals (Sayfa Deneyimi) metriklerine dair değerleri hem Google’ın simüle ettiği ortamdaki veriler hem de ziyaretçilerinizden elde edilen gerçek veriler olarak iki ayrı bölümde görmek mümkündür. Google, hız testi sonuç ekranında hem gerçek kullanıcıların Chrome tarayıcısından elde ettiği verilerin ortalamasını hem de kendi simüle ettiği sanal ortamdan aldığı verileri sunar.

Gerçek Kullanıcı Verileri (Field Data)

PageSpeed Insights’ta bir hız testi gerçekleştirdiğinizde, sonuç ekranında ilk olarak “Gerçek kullanıcılarınızın nelerle karşılaştığını görün” başlığı altında son 28 günlük veri toplama dönemine dair gerçek kullanıcıların Chrome verilerinden elde edilen performans verileri görünür. Bu alanda tüm dünyadan sitenizi ziyaret eden kullanıcılardan elde edilen değerlerin bir ortalaması görünür.

google-pagespeed-insights-field-data

Google, burada listelediği değerleri belli aralıklarda günceller ve son 28 günlük veri toplama döneminde gerçek kullanıcıların yükleme performansına göre metrik değerleri değişir. Kullanıcılardan toplanan bu veriler tam ziyaret sürelerini ifade eder ve doğal olarak farklı cihazlar & farklı ağ bağlantıları üzerinden toplanan metrik değerlerini gösterir.

Simüle Edilmiş Ortamdaki Veriler (Lab Data)

Google, simüle ettiği ortamda yavaş bir ağ bağlantısı kullanarak eski tip bir cihaz üzerinden test gerçekleştirir ve buna göre değerleri gösterir. Simüle edilen ortamda 3G gibi yavaş bir ağ bağlantısı kullanılır ve yapılan kontroller Moto G4 gibi eski tip bir cihaz üzerinden gerçekleştirilir.

google-pagespeed-insights-lab-data

Ayrıca, gerçek kullanıcıların Chrome verilerinden alınan ortalama değerler yerine, tek bir oturum üzerinden elde edilen değerler gösterilir. Böylece anlık olarak sayfanın yüklenme performansına dair sonuçları görmek mümkün.

Core Web Vitals Metrikleri ve Değerler

PageSpeed Insights aracında Core Web Vitals metriklerine yönelik tüm detayları hem mobil hem de masaüstü platformlar için görmek mümkün. PageSpeed Insights, hız testi için verdiğiniz URL’in Core Web Vitals tarafındaki değerlerini aşağıdaki görselde olduğu gibi gösteriyor;

google-pagespeed-insights-core-web-vitals-metrikleri

Bu ekranda First Contentful Paint, Time to Interactive, Speed Index, Total Blocking Time, Largest Contentful Paint ve Cumulative Layout Shift metriklerindeki anlık performansınızı ölçümleyebilir ve metriklerdeki değerlerinizi görebilirsiniz. Aşağıda Core Web Vitals tarafında değerlendirilen metrikleri ve metriklerin detaylarını görebilirsiniz.

First Contentful Paint (FCP) (İlk Zengin İçerikli Boya)

İlk Zengin İçerikli Boyama metriği, sayfa yüklenmesinin ilk aşamasında ilk metnin veya resmin boyanmasına kadar geçen zamanı işaret eden bir metriktir. FCP süresi olarak 0-1.8 saniye arası iyi, 1.8-3 saniye arası orta, 3 saniye üzeri yavaş olarak değerlendirilir.

Time to Interactive (TTI) (Etkileşim Süresi)

Etkileşim Süresi metriği, sayfanızın tamamen yüklenmesinin tamamlanmasını ve etkileşime geçmeye hazır hale gelmesine kadar geçen zamanı ifade etmektedir. Örneğin sayfanızın yüklenmesi tamamlanır tamamlanmaz bir formla veya bir butonla etkileşime geçme durumunun hazır olma süresi bu metriğin ölçümlediği değerdir. TTI süresi olarak 0-3.8 saniye arası iyi, 3.9-7.3 saniye arası orta, 7.3 saniye üzeri yavaş olarak değerlendirilir.

Speed Index (SI) (Hız Endeksi)

Hız Endeksi, sayfanın yüklenmesi esnasında görsel anlamda sayfa içeriğinin ne kadar hızlı bir sürede doldurulabildiğini göstermektedir. Speed Index metrik değerinde 0-3.4 saniye arası iyi, 3.4-5.8 saniye arası orta, 5.8 saniye üzeri yavaş olarak değerlendirilir.

Total Blocking Time (TBT) (Toplam Engelleme Süresi)

Toplam Engelleme Süresi, yüklenme esnasında ana iş parçacığı zaman çizelgesinde 50 ms’in üzerinde tamamlanan bir görev, TBT olarak hesaplanır. Örneğin yüklenme aşamasında 150ms, 90ms ve 200ms sürelerinde tamamlanan görevler TBT olarak değerlendirilir ve bu senaryoda TBT değeri toplamda 440ms olarak yansıtılır. TBT metriğinde 0-200 milisaniye arası iyi, 200-600 milisaniye arası orta, 600 milisaniye üzeri yavaş olarak değerlendirilir.

Largest Contentful Paint (LCP) (En Büyük Zengin İçerikli Boyama)

En Büyük Zengin İçerikli Boyama, yüklenme durumunda sayfanın büyük bölümünü kaplayan en büyük metin alanının veya görsel alanın boyandığı süreyi işaret etmektedir. LCP metrik değerinde 0-2.5 saniye arası iyi, 2.5-4 saniye arası orta, 4 saniye üzeri yavaş olarak değerlendirilir.

Cumulative Layout Shift (CLS) (Kümülatif Düzen Kayması)

Kümülatif Düzen Kayması, yüklenme esnasında görünen alan içerisindeki görünür durumda olan tüm öğelerin hareketini ölçer ve beklenmeyen tüm düzen kaymalarına göre bir puanlama gerçekleştirir. CLS metriğinde 0-0.1 değer aralığı iyi, 0.1-0.25 değer aralığı geliştirilmeli, 0.25 üzeri zayıf olarak değerlendirilir.

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

SEO 02 Mart 2022

Google Indexing API Kurulumu ve Kullanımı (Python / WordPress)

Anıl Zengin

Google tarafından ilk olarak 26 Haziran 2018 tarihinde kullanıma sunulan Indexing API ile birlikte indekslenmemiş URL’lerin tek veya toplu şekilde indekslenmesi için istek göndermemiz mümkün hale geldi. Arama sonuçlarında Google tarafından doğal şekilde indekslenmemiş olan “İş İlanları” ve “Canlı Yayın” türünde sayfalar için kullanımı mümkün olan API ile birlikte 25-30 saniye içerisinde ilgili URL’leri Google’da doğrudan indeksletmek mümkün hale geliyor. İndekslemenin haricinde, Google dizininde bulunan bir URL’inizi Indexing API üzerinden gönderdiğiniz bildirimle birlikte Google’dan silmeniz de mümkün durumda. Hazırladığım bu içerikte Indexing API servisini hem Python üzerinden tek veya birden fazla URL’iniz için kullanmayı hem de WordPress tabanlı siteler için eklenti üzerinden kullanmayı anlattım.

Google Indexing API Hangi Durumlarda Kullanılır?

Google Indexing API, şimdilik sadece iş ilanları ve canlı yayın türündeki sayfaların kullanımı için uygun durumda. Bu iki türdeki sayfalar sınırlı süre içerisinde yayında kaldığı ve kullanıcılara hızlı ulaştırılması gereken içerik türleri olduğundan dolayı hızlı indekslemeye ihtiyacı bulunuyor. Bu sebepten dolayı Google Indexing API üzerinden direkt olarak indeksleme isteğini bu kategorilerde olmayan siteler için göndermeniz önerilmez.

Google Indexing API servisini yeni bir sayfayı anında indeksletebilmekten hariç olarak farklı amaçlar için de kullanmak mümkün. Sitenizden kalıcı olarak kaldığınız bir URL’in indeksinin de anında silinmesini sağlamak, sayfa içerisinde yaptığınız güncellemeleri Google’a anında bildirmek ve gönderdiğiniz bir isteğin kontrolünü yapmak gibi çeşitli amaçlar için Indexing API’ı kullanmak mümkün.

Google Indexing API Nasıl Kurulur?

Google Indexing API kurulumunu yapmak, WordPress’te eklenti üzerinden veya Python üzerinden Google Indexing API ile URL’lerinizle ilgili tekli veya çoklu işlemler yapmak için öncelikle bir ön hazırlık yaparak bu servisi kullanmaya hazır hâle gelmeniz gerekmektedir. Aşağıda Google Indexing API kurulumu yapmak için yapmanız gerekenler aşama aşama yer almaktadır.

Google Cloud Hesabı Oluşturma

Google Indexing API servisini kullanabilmek için aktif bir Google Cloud hesabınızın olması gerekiyor. Aktif bir Google Cloud hesabınız yoksa https://cloud.google.com/contact adresinden bir Google Cloud hesabı oluşturmanız gerekmekte.

API Projesi Oluşturma

Bir Google Cloud hesabı oluşturduktan sonra ikinci aşama olarak Google API Console platformundan Indexing API servisini kullanabilmek için yeni bir proje oluşturmanız gerekmektedir. Yeni proje oluşturmak için https://console.cloud.google.com/projectcreate sayfasına gitmeniz ve sizden istenen “Project Name” bölümünü projenizin adını yazacak şekilde doldurabilirsiniz.

google-cloud-proje-olusturma

Servis Hesabı Oluşturma

Indexing API için projenizi oluşturduktan sonra ikinci aşamada bir servis oluşturmanız gerekmekte. Google Cloud’da bir servis oluşturmak için ilk olarak https://console.cloud.google.com/iam-admin/serviceaccounts/create adresine gitmeniz ve daha sonra karşınıza gelen ekranda “Servis account name” yazan bölümüne bir servis adı girmeniz gerekmektedir.

google-cloud-servis-olusturma

Devamında da “Grant this service account access to project” bölümündeki “Role” bölümünden “Owner” statüsünü seçmeniz ve “Continue” butonuna basarak devam etmeniz gerekmekte.

google-cloud-servis-hesabi-role

API Anahtarlarını Oluşturma

Servis hesabınızı oluşturduktan sonra karşınıza gelen yeni ekran üzerinde oluşturduğunuz servisin sağ kısmında bulunan üç nokta ikonuna tıklayarak açılan küçük menüden “Manage keys” bölümüne tıklamanız gerekmektedir. Bu bölümde API anahtarlarını oluşturmalısınız.

google-cloud-service-manage-keys

Devamında da karşınıza gelen ekran üzerinden “Add Key” butonuna basıp sonrasında “Create new key” seçeneğine tıklayın.

google-cloud-service-key-olusturma

Karşınıza gelen bu ekrandan “JSON” seçeneğini seçmeniz ve “Create” butonuna tıklayarak bir private key oluşturmanız gerekiyor.

google-cloud-service-key-json

Create butonuna bastığınızda otomatik olarak bir .json uzantılı dosya bilgisayarınıza indirilecektir.

Indexing API Etkinleştirme

Google Cloud üzerinde Indexing API’ı kullanabilmek için proje ve servis oluşturduktan sonra Cloud içerisinde yer alan https://console.cloud.google.com/apis/library/indexing.googleapis.com adresinden Indexing API servisini de “Enable” durumuna getirmeniz gerekmektedir.

google-indexing-api-etkinlestirme

Aksi durumda Indexing API servisi hesabınız için “Disable” durumunda olacak ve servis çalışmayacaktır.

Search Console Sahip Yetkilendirmesi

Google Cloud üzerinde proje ve servis oluştururken size özel oluşturulan Indexing API servisinin mail adresine Search Console mülkünüzde “Sahip” statüsünde yetkilendirme yapmanız gerekmektedir.

search-console-sahip-yetkilendirmesi

Bu yetkilendirmeyle birlikte Indexing API servisi çalışabilir duruma gelecek ve URL’leriniz için Indexing API üzerinden Search Console bağlantınızla URL indeksleme, kaldırma ve güncelleme gibi istekleri gönderebileceksiniz.

Python Nasıl Kurulur?

Google Indexing API servisini Python üzerinden kullanabilmek için ilk olarak bilgisayarınızda Python kurulumunu yapmanız gerekmektedir. Aşağıdaki bağlantı üzerinden işletim sisteminize uygun Python’ı bilgisayarınıza indirebilir ve kullanmaya başlayabilirsiniz;

https://www.python.org/downloads/

Python kurulumu sonrasında gerekli olan kütüphanelerin yüklenmesiyle birlikte Indexing API üzerinde URL’leriniz için işlem yapabileceksiniz.

Indexing API İçin Gerekli Olan Kütüphanelerin Yüklenmesi

Python üzerinden Google Indexing API kullanarak URL’lerinizi dizine ekleme, dizinden kaldırma veya güncelleme işlemlerini yapabilmek için gerekli olan kütüphaneleri yüklemeniz gerekiyor. Python’da Google Indexing API kullanmak için oauth2client, httplib2 ve json kütüphanelerini yüklemeniz yeterli olacaktır.

Python’da kütüphane yüklemek için “pip” komutunu kullanabilirsiniz. Örneğin “pip install oauth2client” komutunu Python’da konsola yazarak oauth2client kütüphanesini yükleyebilirsiniz.

Kod İçerisinde Düzenlemeniz Gereken Alanlar

Python üzerinden Google Indexing API kullanabilmek için aşağıdaki Python kodunu kullanabilirsiniz. Aşağıdaki kod içerisinde yer alan url = ‘https://boosmart.com/’ bölümünü kendi geçerli URL’iniz olacak şekilde güncellemeniz, JSON_KEY_FILE = “JSON-DOSYA-ADINIZ.json” bölümündeki .json adını da kendi json anahtarı dosya adınıza göre değiştirmeniz gerekmektedir. Böylece URL bölümünde yer alan sayfanız, Google’da indekslenecek veya içeriğinin güncellendiğine dair Google’a bilgi gidecektir.

Tek URL İçin Yapacağınız İşlemde Kullanmanız Gereken Kod Yapısı

Eğer tek bir URL üzerinde Indexing API servisiyle işlem yapacaksanız, aşağıdaki kodu kullanabilirsiniz. Kodda yer alan “JSON-DOSYA-ADINIZ” alanında Google Cloud üzerinden elde ettiğiniz .json anahtarı dosya adınızı yazmanız gerekiyor. Ayrıca content bölümündeki URL alanına kendi URL’inizi yazmanız gerekmekte.

from oauth2client.service_account import ServiceAccountCredentials
import httplib2

SCOPES = [ "https://www.googleapis.com/auth/indexing" ]
ENDPOINT = "https://indexing.googleapis.com/v3/urlNotifications:publish"

# service_account_file.json is the private key that you created for your service account.
JSON_KEY_FILE = "JSON-DOSYA-ADINIZ.json"

credentials = ServiceAccountCredentials.from_json_keyfile_name(JSON_KEY_FILE, scopes=SCOPES)

http = credentials.authorize(httplib2.Http())

# Define contents here as a JSON string.
# This example shows a simple update request.
# Other types of requests are described in the next step.

content = """{
  \"url\": \"https://boosmart.com.\",
  \"type\": \"URL_UPDATED\"
}"""

response, content = http.request(ENDPOINT, method="POST", body=content)

Toplu URL İçin Yapacağınız İşlemde Kullanmanız Gereken Kod Yapısı

Birden fazla URL için işlem yapmak istediğinizde aşağıdaki kod yapısını kullanmanız gerekmektedir. Bu kod içerisinde de yine aynı şekilde “JSON-DOSYA-ADINIZ” alanında Google Cloud üzerinden elde ettiğiniz .json anahtarı dosya adınızı yazmanız gerekiyor. Ayrıca requests bölümündeki URL’leri kendi URL’lerinize göre güncellemeniz gerekmektedir. Toplu yapacağınız işlemde 1000 URL’e kadar tek istekle bildirim gönderebilirsiniz.

from oauth2client.service_account import ServiceAccountCredentials
from googleapiclient.discovery import build
from googleapiclient.http import BatchHttpRequest
import httplib2
import json

requests = {
    'https://boosmart.com/':'URL_UPDATED',
    'https://boosmart.com/test/':'URL_UPDATED'
}

JSON_KEY_FILE = "JSON-DOSYA-ADINIZ.json"

SCOPES = [ "https://www.googleapis.com/auth/indexing" ]
ENDPOINT = "https://indexing.googleapis.com/v3/urlNotifications:publish"

# Authorize credentials
credentials = ServiceAccountCredentials.from_json_keyfile_name(JSON_KEY_FILE, scopes=SCOPES)
http = credentials.authorize(httplib2.Http())

# Build service
service = build('indexing', 'v3', credentials=credentials)

def insert_event(request_id, response, exception):
    if exception is not None:
      print(exception)
    else:
      print(response)

batch = service.new_batch_http_request(callback=insert_event)

for url, api_type in requests.items():
    batch.add(service.urlNotifications().publish(
        body={"url": url, "type": api_type}))

batch.execute()

Çalıştırma ve Sonuç

Yukarıdaki Python kodunu çalıştırdığınızda, kodun içerisindeki yer alan URL’in indekslenmesine veya içeriğin güncellendiğine dair Google’a bir istek gönderilecek ve kısa bir süre sonra gönderdiğiniz bu URL, Google’da indekslenecek veya güncellenecektir.

Yukarıdaki kodun içerisinde yer alan ‘URL_UPDATED’ bölümünü ‘URL_DELETED’ olarak değiştirdiğinizde Google’a ilgili URL’in indeksten kaldırılmasına yönelik bir istek gidecektir. Ayrıca kod içerisinde kullanabileceğiniz diğer parametreler hakkında detaylı bilgi için https://developers.google.com/search/apis/indexing-api/v3/using-api bağlantısından Google dökümanına erişebilirsiniz.

WordPress’te Google Indexing API Kullanımı

WordPress tabanlı sitelerde Google Indexing API kullanmak için başvurabileceğiniz eklentiler bulunmakta. Rank Math tarafından geliştirilen Instant Indexing for Google eklentisini kurup Cloud aktivasyonunuzu yaptıktan sonra URL’leriniz için işlem yapmanız mümkün. Doğrudan WordPress yönetim panelinizden tek veya birden fazla URL’iniz için indeksleme ve indeksten kaldırma gibi işlemleri kolayca yapabileceksiniz.

Instant Indexing for Google Eklenti Kurulumu ve Kullanımı

Rank Math tarafından geliştirilen Instant Indexing for Google eklentisi üzerinden Indexing API servisini kullanabilmek için ilk önce eklentiyi indirip sitenizde aktif hale getirmeniz gerekiyor. Instant Indexing for Google eklentisini aşağıdaki bağlantıdan indirebilirsiniz.

Eklentiyi indirip sitenizde aktif hale getirdikten sonra eklentinin ayarlar bölümünde bulunan “Google JSON Key:” kutucuğuna JSON anahtarı kodunuzu yapıştırarak ya da direkt olarak JSON dosyanızı upload ederek API bağlantısını sağlayabilirsiniz. Ayrıca hemen alt kısımda bulunan “Submit Posts to Google:” bölümünden de bir içeriğinizi, sayfanızı veya ortam dosyanızı güncelledikten sonra otomatik şekilde Google Indexing API ile bunun Google’a bildirilmesini istiyorsanız bu seçeneği aktif hale getirebilirsiniz.

instant-indexing-for-google-eklenti-ayarlari-1

İkinci adımda da üst kısımda bulunan Console bölümünden Google Indexing API ile işlem yapmak istediğiniz URL’lerinizi Google’a manuel olarak gönderebileceğiniz alanı kullanabilirsiniz.

instant-indexing-google-api-URL-istegi-gonderme

Bu bölümde her satırda bir URL olacak şekilde ister tekli ister toplu şekilde de URL’leriniz için işlem yapmanız mümkün. URL’lerinizi kutucuğa yazdıktan sonra alt bölümdeki “Action:” bölümünden yapmak istediğiniz eylemi seçmeniz gerekiyor. Burada “Publish/update URL” seçeneği indekslemeyi, “Remove URL” seçeneği indeksten kaldırmayı ve “Get URL status” seçeneği de URL’e başarılı bir şekilde istek gönderip göndermediğinizi belirtir.

Google Indexing API Limitleri

indexing-api-limitler

Yararlanılan Kaynaklar

https://developers.google.com/search/apis/indexing-api/v3/using-api

https://www.jcchouinard.com/google-indexing-api-with-python/

SEO 23 Şubat 2022

SEO’ya Uygun Domain Değişikliği (Domain Migration) Nasıl Yapılır?

Anıl Zengin

Domain değişikliği gerektiren migrasyon süreçleri için SEO açısından oldukça dikkatli davranmayı gerektiren kritik ve sancılı bir süreç diyebiliriz. Ciddi trafik düşüşlerine ve pozisyon kayıplarına yol açabilecek kritik hataların yapılma ihtimalinin yüksek olduğu bu süreçte, nelere dikkat etmeniz gerektiğini bu rehberde derledim. SEO’ya uygun olacak şekilde URL yapısının değiştiği ve değişmediği senaryolarda domain değişikliği yapmak için dikkat etmeniz gerekenler yazının devamında…

Trafik Kaybetmeden SEO’ya Uygun Domain Değiştirme Rehberi

Trafik kaybı yaşamadan ve SEO performansında olumsuz bir durum yaşamadan domain değiştirmek için her adımda kontrollü ve dikkatli aşama kaydetmek oldukça önemli. SEO performansında kayıp yaşamamak için birçok kontrolün yapılması ve gerektiği durumlarda da doğru müdahelelerin yapılması gerekmektedir. Domain değişikliği sürecinde URL yapısının değişip değişmeyeceği konusu, bu süreci şekillendiren ilk önemli maddemiz. Yazının kalan bölümünde hem URL yapısının değişeceği hem de değişmeyeceği senaryolara ilişkin yapılması gereken kontroller ve çalışmalar yer almakta.

Test / Demo Ortamı Hazırlanması

Yeni alan adınıza geçmeden önce her şeyin doğru bir şekilde çalıştığının kontrolünü daha doğru şekilde yapmak için bir test / demo ortamı hazırlamanızda fayda var. Test ortamınızda yeni alan adınızla geçişle birlikte problem yaşayabileceğiniz noktaları daha erkenden tespit etmek ve daha hızlı çözüm sağlamak için bir konfor alanı olarak düşünebilirsiniz.

Test ortamınızı kullanmaya başlamadan önce, bu ortamın Googlebot erişimine kapatılması için aşağıdaki robots.txt komutlarını test ortamınızda kullanmanız oldukça önemli;

User-agent: *
Disallow: /

Yukarıdaki kod, tüm botların sitenizdeki sayfalara erişimini engeller. Kodda “User-agent: *” olan bölüm, bir sonraki satırdan itibaren yazılacak komutların tüm botları kapsayacağını belirtir. İkinci satırda yer alan “Disallow: /” komutu ise hiçbir sayfaya tarama erişimi verilmediğini botlara bildirmektedir. Bu sayede test ortamınız tüm botların taramasına kapalı olacak.

Robots.txt engellemesinden hariç olarak test ortamınızdaki sayfalarınızın indekslenmesinin önüne geçmek için sayfalarınızda <head> etiketi içerisinde olacak şekilde aşağıdaki gibi “noindex” kodunu yerleştirmeniz gerekir;

<meta name=”robots” content=”noindex” />

Böylece arama motoru botları sayfanızı tarasa da noindex etiketi ile birlikte sayfayı indekslemeyecek.

URL Yönlendirmelerinin Yapılması

URL Yapısı Değişecekse: URL Eşleştirme ve 301 Yönlendirme Listesi Hazırlanması

Eğer domain değişikliği operasyonunuzda URL yapısı da değişecekse, kontrol etmeniz gereken ekstradan birkaç maddeniz daha olacak demektir. Özellikle eski URL’lerinizi yeni yapıdaki URL’lerinize yönlendirebilmeniz, bu sürecin en önemli maddeleri arasında. Zira eski URL’leriniz Googlebot tarafından taranmaya devam ediyor ve Google’da indexli durumda. Bu sebepten dolayı Google üzerinden sitenizi ziyaret eden kullanıcıların ve elbette Googlebot’un 404 sayfalarıyla karşılaşmaması için eski URL’lerinizi yeni yapıdaki tam karşılığına “301 kalıcı yönlendirme” ile yönlendirmeniz büyük önem arz ediyor.

Bu çalışmaya başlamadan önce, mevcut sitenizi bir SEO Crawler’ı yardımıyla (Screaming Frog SEO Spider, DeepCrawl, OnCrawl, JetOctopus vb.) Analytics ve Search Console bağlı olacak şekilde, en az 2 yıllık zaman dilimi ayarlanmış olarak taramanız gerekmekte. Tarama sonucunda, sitenizde son 2 yılda en az 1 Impression elde etmiş tüm sayfaların URL’lerine sahip olacaksınız. Bu da URL eşleştirmesi yaparken herhangi bir URL’i gözünüzden kaçırma ihtimalinizi düşürecek.

301-yonlendirme-listesi-hazirlanmasi

İkinci aşamada, yeni sitenizin demo/test ortamını yine bir SEO Crawler’ı yardımıyla taramanız gerekmekte. Böylece yeni URL yapısını kullanacak olan tüm URL’lerinizi elde etmiş olacaksınız. Mevcut sitenizdeki eski URL’lerinizi nereye yönlendireceğinizi belirlerken, test/demo ortamınızdaki URL’lere sahip olmanız oldukça önemli.

Son olarak da eski URL – yeni URL olacak şekilde mevcut sayfa URL’lerinizi yeni yapıdaki URL’lerinizle eşleştirmeniz gerekiyor. En temel olarak Excel üzerinden yapacağınız formülasyonlarla birlikte eski ve yeni URL’lerinizi kolayca eşleştirebilirsiniz. Bazı durumlarda eski ve yeni sayfalarınız arasında bulacağınız bir bağlantı da URL eşleştirme sürecini kolaylaştırmaktadır. Örneğin iki ürün sayfası arasındaki SKU kodlarının uyuşması gibi durumlarda SKU kodlarını scrape ederek URL’lerinizi eşleştirebilirsiniz.

URL Yapısı Değişmeyecekse: Htaccess Üzerinden Wildcard Yönlendirmenin Yapılması

URL yapısının değişmediği migrasyon sürecinde en azından URL yönlendirmeleri çok daha kolay yapılabilmektedir. Apache sunucular için kullanılan bir yapılandırma dosyası olan .htaccess dosyasına eklenecek bir kod ile tüm URL’lerinizi yeni domainine yönlendirecek şekilde toplu bir işlem yapabilirsiniz.

Aşağıdaki kodu veya buna benzer olarak işlev gören diğer kodları kullanarak .htaccess dosyanız üzerinden mevcut domaininizdeki tüm URL’lerinizi yeni domaininizdeki URL’lerinize yönlenecek şekilde yönlendirme yapabilirsiniz;

<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_HOST} ^olddomain.com$ [OR]
RewriteCond %{HTTP_HOST} ^www.olddomain.com$
RewriteRule (.*)$ http://www.newdomain.com/$1 [R=301,L]
</IfModule>

Redirect Chain (Yönlendirme Zinciri) Kontrolleri

Alan adı değişikliğinde özellikle URL yapısının değiştiği senaryoda yapılan yönlendirmelerde hata yapma durumunda bir URL’in birden fazla adrese peş peşe 301/302 şeklinde yönlenmesi olasıdır.

redirect-chain-yonlendirme-zinciri-kontrolleri

Bu sebepten dolayı yeni alan adına geçişte yapılan yönlendirmeler mutlaka kontrol edilmeli ve yönlendirme zincirinin tespit edildiği URL’lerin tek bir yönlendirmeyle hedef URL’e yönlenmesi sağlanmalı. Aksi durumda SEO açısından doğru bir yönlendirme uygulanmamış olacaktır. Ayrıca tarama kolaylığı açısından da yönlendirmelerin tek bir yönlendirme olacak şekilde kurgulanması daha sağlıklıdır.

Redirect Loop (Yönlendirme Döngüsü) Kontrolleri

URL yönlendirme işleminde dikkat edilmesi gereken diğer bir konu da sitenizdeki URL’lerinizde bir redirect loop yani yönlendirme döngüsü durumunun olup olmadığını kontrol etmektir. Hatalı bir yönlendirme kurgusunda meydana gelebilecek bir yönlendirme döngüsünde herhangi bir URL’iniz sürekli olarak kendine 301 yönlendirme yapabilir.

redirect-loop-yonlendirme-dongusu-kontrolleri

Bu durumda Googlebot, yönlendirme döngüsüne takılan sayfanızı tarayamayacağı için indeksleme de gerçekleşmeyecek. Bu da özellikle önemli URL’lerinizin indekslenmemesi gibi ciddi bir probleme yol açabilir.

WWW / Non-WWW Protokolü Kontrolü

WWW veya Non-WWW protokolleri arasındaki mevcut kullanımınız yeni alan adınızda değişecekse, birçok değişikliği bu doğrultuda yapmanız gerekir. URL yönlendirmesi için 301 yönlendirme listesi hazırlanması, Canonical URL’lerinin hazırlanması, site haritası URL’lerinin hazırlanması ve site içi bağlantıların kurgulanması gibi konularda WWW veya Non-WWW olarak yaptığınız tercihe göre hareket etmeniz gerekmektedir.

www-nonwww-yonlendirmesi

Aksi durumda örneğin siteniz WWW protokolünde çalışırken, diğer tüm konularda Non-WWW formatında URL’ler kullanılır ve bu da SEO performansınız açısından dezavantaj yaşamanıza sebep olur.

HTTP / HTTPS Kontrolü

Yeni alan adınıza geçişte, tüm URL’lerinizin HTTPS protokolünde çalıştığından emin olmalısınız. Siteniz HTTPS olarak çalışırken içeride bulunan HTTP’li bağlantılar, tarama bütçenizin verimsiz kullanılmasına ve Googlebot tarafından gerçekleştirilen taramada Googlebot’un ekstradan bir yönlendirmeyle karşılaşmasına sebep olur.

http-https-yonlendirmesi

Bu durumda Googlebot’un sitenizi taraması zorlaşır ve sayfalar arasındaki gezinme süresi uzar. Ayrıca tarama bütçeniz de bu durumdan olumsuz etkileneceği için gün içerisinde daha az sayıda sayfanızın taranması sorunuyla karşı karşıya kalmanız mümkündür. Bu sebepten dolayı sitenizdeki tüm URL’lerin HTTPS olarak çalıştığından ve sayfalarınıza giden her türdeki (Hyperlink, Canonical, Hreflang URL vb.) tüm iç bağlantıların da yine HTTPS olarak kullanıldığından emin olmanız gerekir.

Canonical Etiketleri Kontrolü

İndekslenebilirlik konusunda oldukça önemli bir konu olan Canonical etiketi, siteniz için gerçekleştireceğiniz domain değişikliği sürecinde de dikkatlice kontrol etmeniz gereken başka bir noktadır. Bilindiği üzere Canonical etiketi, Googlebot’a bir sayfanın geçerli ve kaale alınması gereken URL versiyonunu belirten önemli bir etikettir. Canonical etiketi kurgularının yanlış uygulanması durumunda önemli indekslenebilirlik sorunlarıyla karşı karşıya kalma tehlikesi mevcuttur.

Bu sebepten dolayı, yeni alan adınıza geçiş sürecinde sayfalarınızın sorunsuz şekilde indekslenebilmesi için sayfalarınızın Canonical etiketinde yer alan Canonical URL’inin doğru olduğunu bir kere daha kontrol etmenizde fayda var.

Robots.txt Dosyası Komutlarının Kontrolü

Robots.txt dosyanızda kullandığınız komutlar, doğru kullanılmadığında taranabilirlik problemleri yaşamanıza sebep olur. Bu durumdan dolayı Robots.txt dosyanızda yer alan izin verme ve engelleme komutlarını gözden geçirmenizde fayda var.

Özellikle de test/demo ortamınızda yer alan bir Robots.txt dosyasını kullanacaksanız, içerisinde site genelini etkileyecek bir tarama komutunun olup olmadını kontrol etmeniz gerekir. Çoğu zaman geçiş süreçlerinde Robots.txt dosyası içerisindeki komutların güncellenmesi unutulur ve ciddi taranabilirlik problemleriyle karşı karşıya kalınır.

Site Haritası URL’lerinin Kontrolü

Yeni alan adınıza geçiş sürecinde kontrol etmeniz gereken bir diğer konu da site haritalarınızdaki URL’lerdir. Site haritalarınızın barındırdığı URL’lerin yeni alan adınızı içerecek şekilde güncellenmesi, yeni sayfa URL’lerinizin keşfedilmesini ve taranmasını kolaylaştırmak için ek bir avantajdır.

site-haritalarinin-kontrolu

Kullandığınız tüm site haritalarında (görsel URL’lerinin değişmesi durumunda görsel URL’leri de güncellenecek şekilde) eski URL’lerinizi yeni URL’lerinizle değiştirmeniz geçiş aşamasında yapmanız gereken bir diğer maddedir.

Site İçi Bağlantıların Güncellenmesi

Alan adınızın değiştiği bir geçiş senaryosunda, site içerisindeki bağlantılarınızın da yeni URL’leriniz olacak şekilde güncellenmesi SEO açısından atlanmaması gereken bir konudur. Site içerisindeki iç bağlantıların yeni alan adınız olacak şekilde güncellenmesi, Googlebot tarafından sorunsuz bir tarama gerçekleştirilmesi için önemlidir.

Yeni sayfalarınız arasında bir dahili bağlantı kurgusunun kurulmasıyla birlikte Googlebot’un sayfalarınız arasında geçiş yaparak tarama gerçekleştirebilmesi kolaylaşacaktır. Ayrıca yeni sayfalarınızın daha hızlı indekslenmesi için site içi bağlantıları kullanmak oldukça avantaj yaratan bir konudur.

Noindex Etiket Kontrolü

Yeni sitenizin test/demo ortamında canlıya geçiş öncesinde sayfalarınızda “noindex” etiketi bulunuyor olabilir. Sayfalarınızda canlıya geçiş itibarıyla bir “noindex” etiketi kalmaması için genel bir kontrol yapılmalıdır.

Hem tüm sayfalarınızın hem de özellikle yüksek görüntüleme ve tıklama sahibi sayfalarınızın indekslenme sorunu yaşamaması adına yeni alan adınızla canlıya geçiş sürecinde sayfalarınızda herhangi bir “noindex” etiketi kalmaması gerekmektedir. Sayfalarınızda “noindex” etiketinin unutulması durumunda yeni alan adınızda kritik indekslenme sorunlarıyla karşı karşıya kalmanız olasıdır.

Search Console Adres Değişikliği Bildirimi

Alan adınızın değişmesiyle birlikte her ne kadar 301 yönlendirmelerinizi uygulasanız da Search Console üzerinden de Google’a bu değişikliği bildirmeniz gerekmektedir. Hem Google’ın domain değişikliğini tam olarak anlaması hem de sahip olduğunuz backlinklerin yarattığı otoritenin yeni alan adınıza aktarılması için mutlaka Search Console’daki adres değişikliği işlemi yapılmalıdır.

Adres değişikliği yapmadan önce, yeni alan adınız için de Search Console hesabınızı oluşturmanız ve Search Console doğrulamasını tamamlamanız gerekmektedir. Eski sitenizin Search Console mülkünde adres değişikliği bildirimi yapmak için ilk olarak Ayarlar > Adres Değişikliği adımlarını izleyerek Adres Değişikliği sayfasına ulaşabilirsiniz. Bu ekranda karşınıza gelen “Google’ı Güncelle (önerilen)” bölümünde yer alan “Yeni site seçin” kısmından yeni alan adınızın Search Console mülkünü seçmeniz gerekmekte. Son olarak da “Doğrula ve Güncelle” butonuna basarak adres değişikliği işlemini başlatabilirsiniz.

search-console-adres-degisikligi

Adres değişikliği işlemini başlattığınızda Google ilk olarak 301 yönlendirmelerin doğru şekilde çalışıp çalışmadığını birkaç URL üzerinde kontrol eder ve bir sorun olmaması durumunda da işlem başlar. Google’ın yaptığınız adres değişikliği işlemini tam olarak tamamlaması 180 günü bulabilir. Bu süre, sahip olduğunuz URL miktarıyla ilgili olarak değişiklik gösterebilmektedir.

Google Analytics ve Diğer İzleme Kodlarının Kontrolü

Yeni alan adınıza geçişle birlikte sitenizde herhangi bir izleme ve takip sorunu yaşamamak adına Google Analytics kodunuzun ve varsa kullandığınız diğer tool’ların izleme kodlarının eklendiğini ve doğru şekilde tetiklendiğini kontrol etmeniz gerekir. Bu sayede yeni alan adınızdaki tüm izleme metriklerinin sorunsuz şekilde takip etmeye devam edebilirsiniz.

google-analytics-URL-guncelleme

Ayrıca, Analytics hesabınızın ayarlarında yer alan varsayılan URL bölümünü de yeni domaininiz olacak şekilde güncellemeniz de gerekmektedir. Bu sayede Analytics’teki mevcut görünümünüzü yeni alan adınızla kullanmaya devam edebilecek ve eski verilerinizi de aynı ekranlar üzerinde görüntüleyebileceksiniz.

Hreflang Etiketleri Kontrolü

Eğer siteniz çok dilli bir yapıdaysa, hreflang etiketleri içerisindeki URL’lerin de güncellenmesi gerekmektedir. Farklı dillerde karşılıklı olarak kullanılan hreflang alternate etiketlerindeki URL’lerinizi yeni alan adınız olacak şekilde güncelleyerek bölge ve dil hedeflemelerinizi doğru şekilde kullanmaya devam edebilirsiniz.

Hreflang alternate etiketindeki URL’lerin güncellenmemesi durumunda bölge ve dil odaklı yaptığınız hedeflemeler Google’da doğru şekilde gösterim almayacak ve doğru hedef kitleye erişim sağlayamayacaksınız.

Mevcut Backlinklerin Güncellenme Süreci

Alan adı değişikliğinizle birlikte şimdiye kadar mevcut sitenizde sahip olduğunuz backlinklerin de güncellenmesini sağlayarak aldığınız etkiyi yeni alan adınız için de devam ettirebilirsiniz. Her ne kadar 301 yönlendirme uyguladığınızdan dolayı backlinklerin sağladığı otorite gücünü yeni alan adınıza aktarıyor olsanız da, backlinklerinizdeki URL’lerin yeni alan adınız olacak şekilde güncellenmesi bu etkiyi daha hızlı ve daha verimli görmenize yardımcı olacaktır.

Bu yüzden, özellikle yüksek kaliteli ve otoriteli kaynaklardan gelen backlinklerinizin yeni alan adınızı hedefleyecek şekilde güncellenmesini sağlamak için site sahipleriyle iletişime geçmeniz ve backlinklerinizi güncelletmeniz yararınıza olacaktır.

sunucu-loglarinin-kontrolu

Server Loglarının İncelenmesi

Eski sitenizde uyguladığınız 301 yönlendirmelerin ve yeni alan adınızdaki URL’lerinizin Googlebot tarafından taranabilir durumda olduğunun net kontrolünü yapmak için sunucu loglarını incelemeniz en sağlıklı yoldur.

sunucu-log-analizi

Eski sitenizin sunucusundaki erişim logları üzerinden Googlebot’u filtreleyerek yönlendirmelerin Googlebot tarafından taranabildiğini teyitleyebilirsiniz. Ayrıca yeni sitenizin sunucusundaki erişim loglarından da Googlebot’un size yüksek Impression ve Click kazandıran ve arama sonuçlarında pozisyonu iyi olan URL’lerinizin sorunsuz bir şekilde tarayıp tarayamadığını kontrol edebilir ve günlük olarak takip edebilirsiniz.

SEO 16 Kasım 2021

Google, PageSpeed Insights’ı Güncelledi: İşte Yenilikler

Anıl Zengin

Google, kullanıcıların bir sayfanın mobil ve masaüstü hız performansını kontrol edebilmeleri ve performansı artırmaya yönelik geliştirme ipuçları sunduğu PageSpeed Insights aracını güncelledi. PageSpeed Insights’ın yeni güncellemesiyle beraber hem arayüzde hem de kullanıcılara sunulan hız verilerinde önemli yenilikler sunuluyor. Gelin birlikte PageSpeed Insights’ın güncelleme sonrası yeniliklerini inceleyelim.

google-pagespeed-insights-guncellendi

Yeni PageSpeed Insights Neler Sunuyor? 

PageSpeed Insights’ın güncellenen halinde göze çarpan ilk detay, URL’inin yenilenmesi. Daha önceden “developers.google.com/speed/pagespeed/insights” adresinde kullanıcılara hizmet veren Google, bundan sonraki süreçte hafızada daha kalıcı ve daha kolay hatırlanabilir “pagespeed.web.dev” adresini kullanmaya başlamış durumda. İkinci olarak da PageSpeed Insights’ı açar açmaz fark edilen arayüzde yapılan detaylı değişiklikler ön plana çıkıyor. Bir önceki sürümüyle karşılaştırdığımızda PageSpeed Insights’ın daha modern, temiz ve detaylı bir sonuç ekranı sunduğunu görüyoruz. Uzun yıllardan beri alışık olduğumuz ve sonuç ekranında bizi ilk karşılayan metrikler olan mobil ve masaüstü hız skorları, yeni tasarımla birlikte sayfanın alt kısmına taşınmış durumda.

Bir sayfa için hız testi yaptığımızda, sonuç ekranında gördüğümüz ilk veri “Gerçek kullanıcılarınızın nelerle karşılaştığını görün” başlıklı gerçek kullanıcılardan Chrome tarayıcısı üzerinden elde edilen Core Web Vitals metrik değerleri olarak güncellenmiş. Ayrıca bir URL için test yapıldığında “Bu URL” ve “Kaynak” sekmeleri karşımıza çıkıyor. Bu iki sekme, hem test ettiğiniz URL’in hem de ana URL’in performans verilerini gösteriyor. Yani örneğin, https://site.com/ornek-url/ için bir test yaptığınızda hem https://site.com/ornek-url/ adresinin hem de https://site.com/ adresinin performans verilerini görmek mümkün.

google-pagespeed-insights-yeni-arayuz

Ayrıca Google, Chrome tarayıcısı ile gerçek kullanıcılardan toplanan Core Web Vitals değerlerini oluştururken hangi verileri kullandığını da hemen alt kısımda şu şekilde gösteriyor;

  • Son 28 günlük veri toplama dönemi,
  • Farklı mobil cihazlar,
  • Birçok örnek (Chrome Kullanıcı Deneyimi Raporu),
  • Tam ziyaret süreleri,
  • Farklı ağ bağlantıları,
  • Tüm Chrome sürümleri

Chrome ile gerçek kullanıcılardan elde edilen verilerden sonra karşımıza çıkan ikinci bölüm, “Performans sorunlarını teşhis edin” başlıklı lab verilerinden elde edilen Core Web Vitals metrik değerlerini içeriyor. PageSpeed Insights’ın önceki sürümlerinde ilk gördüğümüz sayfa hız skoru, bu alan içerisinde yer alıyor. Ayrıca alt kısmında da daha önceki sürümde olduğu gibi sayfanın yüklenme aşamalarını gösteren bir film şeridi de mevcut. Devamında da alt kısımda hız testi sonuçları sonrasında Google’ın sayfa hızını artırmaya yönelik tespit ettiği hataları, ipuçlarını ve teşhis bilgilerini görüntüleyebiliyoruz.

google-pagespeed-insights-yeni-arayuz-2

Son olarak Google, bu bölümde de lab verileri ile Core Web Vitals değerlerini oluştururken hangi verileri kullandığını metrik değerlerinin alt kısmında şu şekilde sunuyor;

  • Captured at 16 Kas 2021 00:58 GMT+3,
  • Emülasyonlu Moto G4 with Lighthouse 9.0.0,
  • Tek sayfa yükleme,
  • İlk sayfa yükleme,
  • Yavaş 4G kısıtlaması,
  • Kullanıcı aracısı (ağ): “Mozilla/5.0 (Linux; Android 7.0; Moto G (4)) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4695.0 Mobile Safari/537.36 Chrome-Lighthouse”

Google PageSpeed Insights‘ın yeni sürümünü görüntülemek için ziyaret edebilirsiniz: https://pagespeed.web.dev/

Özet

  1. Google, PageSpeed Insights’ın URL’ini güncelleyerek “pagespeed.web.dev” adresiyle daha basit ve akılda kalıcı bir adres tercih etmiş.
  2. Genel olarak yeni PageSpeed Insights’ta gerçek kullanıcılardan elde edilen veriler ile lab verileri arasında keskin bir ayrım bulunuyor.
  3. Google, yanlış anlaşılmalara sebebiyet veren sayfa hız skorlarını ekranın alt kısmına taşıyarak odağı değiştirmeyi hedefliyor olabilir.
  4. Yeni güncellemeyle birlikte hem gerçek kullanıcılardan elde edilen verilerle hem de lab verileriyle oluşturulan Core Web Vitals metrik değerleri daha ön plana çıkmış durumda.
  5. Hız testi sonuç ekranında kullanıcının sorguladığı URL’le birlikte kaynak URL’in de sonuçlarını görebilmesi mümkün.
  6. Hem gerçek kullanıcı hem de lab verileri bölümlerinde Core Web Vitals metrik değerlerinin nasıl oluşturulduğuna dair detaylar alt kısımda madde madde belirtiliyor.
  7. Arayüz değişikliği ile birlikte temiz ve modern bir tasarım kullanıma sunulmuş durumda.

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

Lokal SEO 19 Ağustos 2021

Yerel SEO (Lokal SEO) Rehberi: Performansınızı 12 Adımda Optimize Edin

Anıl Zengin

Yerel SEO ya da Lokal SEO, kullanıcıların yaptığı yerel arama sorgularında görünür olabilmek için yapılan optimizasyonların tamamını ifade eden bir terimdir. Özellikle işletmelerin internet sitelerini ve Google My Business işletme kayıtlarını yerel SEO (lokal SEO) için optimize etmesi, insanların gerçek hayatta işletmeyi ziyaret etmesine veya işletmenin sunduğu hizmetlere ya da direkt olarak işletmeye daha kolay ulaşmasına yardımcı olur.

Bilindiği üzere SEO, internet sitenizin Google aramalarından ziyaretçi kazanması ve milyonlarca yeni kullanıcının işletmenizi keşfetmesi için uygulayabileceğiniz başlıca pazarlama çalışmalarındandır. Yerel SEO (Lokal SEO) ise işletmenizin yer aldığı veya hizmet sunduğunuz bölgede insanların sizi daha kolay bulmasını ve işletmenizi keşfetmenizi sağlayan optimizasyonlardır. Özellikle COVID-19 sürecinde insanların bölgesel bazda yerel aramaları her zamankinden daha çok kullanmasıyla işletmeler için yerel SEO konusu daha da önem kazanmıştır. Bir veya birden fazla bölgeye hizmet veren işletmeler, Google’da lokal kelimelerden oluşan ifadeleri kullanarak arama yapan kullanıcılara ulaşmak ve karşılarına çıkmak için yerel SEO çalışmalarına önem vermelidir.

Yerel SEO İşletmeler İçin Neden Önemli?

Lokal sonuçlar üzerinden kullanıcıları hedeflemek, SEO’da 2021 yılında ve önümüzdeki tüm dönemlerde aktif olarak önemli verilmesi gereken konular arasında yer alıyor. Lokal sonuçlar, kullanıcıların bulunduğu bölgede aradığı bir şeyi bulmasına ciddi oranda yardımcı oluyor. Özellikle işletmeler, etkinlikler ve buna benzer oluşumların daha fazla kullanıcı tarafından ziyaret edilmesi için SEO stratejisinde lokal SEO’ya yer verilmesi kritik bir hale geldi.

Chat Meter tarafından aktarılan bilgilere göre, son iki yılda kullanıcıların yaptığı aramalarda “yakınımdaki” ve “bu gece / bugün” gibi ifadelerin kullanım oranı %900 artış gösterdi. Ayrıca, “açık + şimdi + yakınımdaki” gibi ifadeler içeren mobil aramalar da %200 oranında arttı. Genel olarak bakıldığında ise Google’da yapılan tüm aramaların %46’sı lokal ifadeler içeren arama sorgularından oluşuyor.

lokal-seo-aranma-artislari

Öte yandan 2020 yılına baktığımızda, COVID-19 pandemisiyle geçen bir yıldı ve kullanıcıların alışkanlıkları ile davranışları ciddi oranda değişiklik gösterdi. Pandemiden dolayı alınan tedbirlerle insanların hem kısa hem de uzun mesafeli seyahatleri kısıtlandı ve karantina nedeniyle de tüketiciler alışverişlerini ve ticaretlerini kendilerine en yakın noktalardan/işletmelerden yapmak zorunda kaldı. Durum böyleyken de işletmeler için yukarıda bahsedilen örneklerde olduğu gibi lokal ifadeler içeren arama sorguları üzerinden keşfedilmenin önemi çok fazla arttı.

Yerel SEO (Lokal SEO) Hakkında Önemli 16 İstatistik

  1. Tüm Google aramalarının %46’sı yerel bilgi aramalarından oluşuyor. (Kaynak: GoGulf)
  2. Yerel arama yapan tüketicilerin %72’si, 5 mil içerisindeki bir işletmeyi ziyaret etti. (Kaynak: HubSpot Marketing Statistics)
  3. İnsanların %97’si yerel bir şirket hakkında online olarak yaptığı araştırmalarda başka herhangi bir kaynaktan daha fazlasını öğreniyor. (Kaynak: SEO Tribunal)
  4. Bir mobil cihazdan yapılan yerel işletme aramalarının %88’i, 24 saat içinde işletmenin aranması veya ziyaret edilmesiyle sonuçlanıyor. (Kaynak: Nektafi)
  5. Mobil arama yapan kullanıcıların %61’inin, mobil uyumlu bir siteye sahip olmaları durumunda yerel bir işletmeyle iletişim kurma olasılığı daha yüksek. (Kaynak: HubSpot Marketing Statistics)
  6. 2021 yılına kadar mobil cihazlar yerel satışlarda 1,4 trilyon dolardan fazlasını etkileyecek. (Kaynak: Forrester)
  7. Akıllı telefonlardan yapılan yerel aramaların %18’i bir gün içinde satın almayla sonuçlanırken, yerel olmayan aramaların yalnızca %7’si satışla sonuçlandı. (Kaynak: Think with Google)
  8. Konuma dayalı mobil aramaların %78’i çevrimdışı satın alma ile sonuçlanıyor. (Kaynak: SEO Tribunal)
  9. “Yakınımda” veya “bana yakın, en yakın” türündeki aramalar iki yılda %900’den fazla arttı. (Kaynak: Chat Meter)
  10. Bilgisayar veya tablet kullanıcılarının %72’si ve akıllı telefon kullanıcılarının %67’si şehirlerine veya posta kodlarına göre özelleştirilmiş reklamlar görmek istiyor. (Kaynak: Think with Google)
  11. Mobil cihazlarda lokasyona dayalı özelleştirilmiş kuponları kullanmak, mobilden elde edilen gelirde %9916’lık bir artışa yol açabilir. (Kaynak: WordStream)
  12. Yerel aramalar, zamanın %28’inde satın almayla sonuçlanır. (Kaynak: Joel House Search Media)
  13. Arama sonucu bilgileri, tüketicilerin %70’ini fiziksel bir mağazaya gönderiyor. (Kaynak: Joel House Search Media)
  14. Arama yapanların %92’si, yerel arama sonuçlarının ilk sayfasında işletmeleri seçiyor. (Kaynak: SEO Expert)
  15. Küresel perakende e-ticaret satışları 2021 yılına kadar 4,5 trilyon dolara ulaşacak. (Kaynak: HubSpot Marketing Statistics)
  16. 5 tüketiciden 4’ü yerel bilgileri bulmak için arama motorlarını kullanıyor. (Kaynak: Think with Google)

Yerel SEO (Lokal SEO) Performansınızı Artıracak 12 Hamle 

SEO çalışmalarınız dahilinde yerel SEO çalışmalarınızı da uygulayarak işletmenizin bulunduğu veya hizmet verdiğiniz bölgelerde daha fazla kullanıcıya ulaşabilir, insanların işletmenizi keşfetmesine ve ziyaret etmesine olanak sağlayabilirsiniz. Peki yerel SEO (lokal SEO) çalışmaları kapsamında neler uygulamalısınız? Hazırladığımız bu içerikte yerel SEO performansınızı üst düzeye çıkarmak ve insanların bölgesel olarak işletmenizi keşfetmelerini sağlamak için yapmanız gerekenleri, tavsiyelerimizi ve bazı ipuçlarını listeledik;

İşletmenizi Google My Business’a Kaydedin 

İşletmeniz için hemen bir Google My Business hesabı oluşturun. Günümüzde neredeyse tüm işletmelerin yer aldığı My Business’ta işletmenizin bulunması yerel SEO performansınızı artırmak için yapabileceğiniz en önemli hamlelerden. İşletme kaydından hariç olarak işletmenizin My Business profilini zenginleştirmek için sizden istenen tüm bilgileri girin.

google-my-business

Google’a işletmeniz hakkında vereceğiniz her bilgi önemli bir değerdir. Lokal aramalarda arama sonuçlarında daha fazla görünürlük elde etmek için My Business panelinde Google’ın önerdiği tüm bilgilerinizi doldurarak profil doluluğunuzu %100 seviyesine yükseltin. Ayrıca yine My Business panelinizde dikkat etmeniz gereken noktalardan biri de işletmeniz için seçeceğiniz kategoridir. İşletmeniz hangi kategoriye uygunsa o kategoriyi seçerek kaydedin. Ayrıca ürünlerinizi, sunduğunuz hizmetleri ve hizmet verdiğiniz çalışma saatlerini doğru bir şekilde eklemeyi unutmayın.

Yandex Haritalar ve Apple Haritalar’a İşletmenizi Kaydedin

Yukarıda bahsettiğimiz Google My Business’tan hariç olarak kullanıcıların aktif olarak kullandığı ve Google’ın da değer verdiği diğer platformlar olan Yandex Haritalar’a ve Apple Haritalar’a işletmenizi mutlaka kaydedin. İşletmenizi kaydederken işletme adınızın, telefon numaranızın ve adresinizin doğru olduğundan emin olun. Ayrıca kaydettiğiniz adresin haritada doğru yeri işaret ettiğini de ayrıca kontrol edin. Böylece Yandex Haritalar ve Apple Haritalar kullanan kullanıcılara da erişebilecek ve insanların bu platformlar üzerinden de işletmenizi keşfetmesine ve bulmasına olanak sunacaksınız.

NAP (Name, Address, Phone) Bilgilerinin Tutarlı Olmasına Dikkat Edin

Yerel SEO konusunda işletmeler için bir numaralı sorun NAP (Name, Address, Phone) bilgilerindeki tutarsızlıktır. İşletmenizin İsim, Adres ve Telefon bilgilerinin internet sitenizde görünür alanlarda doğru bir şekilde yer alması çok önemlidir. İşletme bilgilerinizin doğruluğu ve kolay bulunabilirliği, hem arama motorlarının hakkınızda ihtiyaç duyduğu verileri elde etmesinde hem de insanların işletmenizle ilgili bilgileri hızlıca keşfedebilmesinde önemli rol oynar.

NAP-bilgilerinin-tutarli-olmasi-yerel-seo-1

Bu yüzden yerel SEO performansınızda önemli bir yere sahip olan NAP konusuna uyum sağlamak için internet sitenizde, Google My Business’ta, Yandex Haritalar’da, Apple Haritalar’da ve Foursquare gibi platformlarda işletmenizin adının, adresinin, konumunun ve telefon numarasının doğru ve tutarlı olması gerekmektedir.

LocalBusiness Yapısal Veri İşaretlemesi’ni Kullanın

İnternet sitenize işletmenizle ilgili bilgileri içeren LocalBusiness Yapısal Veri İşaretlemesi’ni mutlaka ekleyin. Bu işaretleme kapsamında işletmenizin adresi, bulunduğu bölge ve telefon gibi çeşitli bilgileri ekleyin. Aynı şekilde çalışma saatlerini, varsa departmanları ve varsa menünüzün yer aldığı bir URL’i işaretlemeye dahil edin. Google bu sayede işletmenizle ilgili sunduğunuz verileri işleyecek ve kullanıcıların yaptığı bölgesel nitelikli aramalarda (örneğin “İstanbul’daki en iyi kafeler” gibi) işletmenizi bilgi kartı gibi gösterecek.

LocalBusiness işaretlemesi için örnek bir kullanım:

<script type=”application/ld+json”>
{
“@context”: “https://schema.org”,
“@type”: “Restaurant”,
“image”: [
“https://example.com/photos/1×1/photo.jpg”,
“https://example.com/photos/4×3/photo.jpg”,
“https://example.com/photos/16×9/photo.jpg”
],
“@id”: “http://davessteakhouse.example.com”,
“name”: “Dave’s Steak House”,
“address”: {
“@type”: “PostalAddress”,
“streetAddress”: “148 W 51st St”,
“addressLocality”: “New York”,
“addressRegion”: “NY”,
“postalCode”: “10019”,
“addressCountry”: “US”
},
“review”: {
“@type”: “Review”,
“reviewRating”: {
“@type”: “Rating”,
“ratingValue”: “4”,
“bestRating”: “5”
},
“author”: {
“@type”: “Person”,
“name”: “Lillian Ruiz”
}
},
“geo”: {
“@type”: “GeoCoordinates”,
“latitude”: 40.761293,
“longitude”: -73.982294
},
“url”: “http://www.example.com/restaurant-locations/manhattan”,
“telephone”: “+12122459600”,
“servesCuisine”: “American”,
“priceRange”: “$$$”,
“openingHoursSpecification”: [
{
“@type”: “OpeningHoursSpecification”,
“dayOfWeek”: [
“Monday”,
“Tuesday”
],
“opens”: “11:30”,
“closes”: “22:00”
},
{
“@type”: “OpeningHoursSpecification”,
“dayOfWeek”: [
“Wednesday”,
“Thursday”,
“Friday”
],
“opens”: “11:30”,
“closes”: “23:00”
},
{
“@type”: “OpeningHoursSpecification”,
“dayOfWeek”: “Saturday”,
“opens”: “16:00”,
“closes”: “23:00”
},
{
“@type”: “OpeningHoursSpecification”,
“dayOfWeek”: “Sunday”,
“opens”: “16:00”,
“closes”: “22:00”
}
],
“menu”: “http://www.example.com/menu”,
“acceptsReservations”: “True”
}
</script>

Yol Tarifi ve Açık Adres Bilgileri Ekleyin

İnsanların işletmenizi daha kolay bulabilmesi için internet sitenizdeki İletişim bölümüne mutlaka yol tarifi ve detaylı adres bilgilerini ekleyin. Bu sayede işletmenizin tam olarak nerede olduğu daha anlaşılır olacak ve ulaşım açısından kullanıcılara kolaylık sağlamış olacaksınız. Her ne kadar direkt olarak lokal SEO ile ilgili bir hamle olmasa da kullanıcılara sağladığınız deneyim açısından dolaylı olarak avantaj sağlayacaktır.

Mobil Cihazlara Tam Uyumluluk Sağlayın

Milyonlarca kullanıcı Google’da arama yaparken akıllı telefonlarını kullanıyor. Mobil cihazların bu kadar çok ön plana çıktığı bir dönemde internet sitenizi mobil cihazlarda sorunsuz ve hızlı bir şekilde çalışması için düzenlemeniz şarttır. Özellikle yerel ifadelerin yer aldığı bir Google araması yapan kullanıcıların neredeyse tamamı bunu mobil cihazlarından yapmakta. Durum böyleyken de internet sitenizin mobil cihazlarla uyumlu ve hızlı çalışması hem yerel SEO hem de tüm sitenizin SEO performansı için gerekli bir durumdur.

Lokal Gelişmelere Yönelik İçerikler Oluşturun

İşletmenizin bulunduğu veya hizmet verdiği bölgelerdeki gelişmelere yönelik içerikler oluşturmak, internet sitenizin yerel SEO performansına ciddi katkıda bulunabilir. Örneğin işletmenizin bulunduğu bölgede düzenlenen bir etkinlikle ilgili internet sitenizde bir içerik yayınlamak, konuyla ilgilenen kullanıcıların sizi keşfetmesine olanak sağlayacaktır. Bu yüzden hem bulunduğunuz hem de hizmet verdiğiniz bölgelerdeki gelişmeleri takip ederek bunlara ayak uydurmak avantaj sağlayacaktır.

İçerik Stratejinize Lokal İfadeleri Dahil Edin

Lokal ifadeler (şehir, ilçe veya mahalle adı gibi) içeren anahtar kelimeleri içerik stratejinize dahil edin. İnsanların bulunduğunuz veya hizmet verdiğiniz bölgeler ve işletme kategorinizle ilgili kullandığı arama sorgularını anahtar kelime olarak belirleyin ve içerik oluştururken bu sorgulara göre hareket edin. Örneğin işletmeniz araç tamiriyle ilgiliyse, oluşturacağınız içeriklerde “İstanbul araç tamiri, İstanbul oto tamirci, Şişli oto tamir, Şişli araç servisi” gibi anahtar kelimelere yer vermeniz büyük önem arz eder.

lokal-seo-icerik-stratejisi-lokal-kelimeler

Örnekte olduğu gibi benzer anahtar kelimeler kullanarak lokal arama yapan kullanıcıların karşısına çıkmak için içerik stratejinizi bu yönde şekillendirmelisiniz. İçerik başlığında, açıklama metninde, H1 etiketinde, içeriğin kendisinde ve ara başlıklarınızda bu anahtar kelimeleri anlamlı şekilde kullanarak pozisyon elde edebilirsiniz.

Güçlü Bir Backlink Profiline Sahip Olun

İşletmenizin kategorisi her ne olursa olsun, sektörünüzle uyumlu ve hedef kitlenizin yer aldığı diğer internet sitelerinden, forumlardan ve topluluklardan internet sitenize bağlantı edinmek yerel SEO performansınızı üst düzeye çıkarabilecek önemli bir hamledir. İşletmenizle aynı sektörde yayın yapan sitelerle iletişime geçerek sitenize backlink sağlamasını talep edebilirsiniz. Özellikle iletişime geçtiğiniz sitelerin işletme kategorinizle uyumlu bir içeriği varsa, direkt olarak o içerik üzerinden hedeflediğiniz anahtar kelimeleri anchor text olarak kullanarak backlink edinmeniz performansınıza ciddi katkı sağlar.

backlink-ve-anahtar-kelime-siralamalari

Bilindiği üzere edinilen backlink’ler bir sitenin değerinden yararlanmanızı sağlar ve Google’a sitenizin güvenilir olduğuna dair sinyal gönderir. Böylece siteniz için uyguladığınız SEO stratejinizde hedeflediğiniz anahtar kelimelerde pozisyon kazanma şansınız ciddi oranda yükselir. Ayrıca eğer edindiğiniz backlinkler sektörünüzle ilgili sayfalardan ve içeriklerden olursa, ilgili içeriği okuyan kullanıcılar sitenizi de ziyaret edebilir, bu da size ayrıca trafik kazandırır. Ahrefs tarafından yapılan bir araştırmaya göre, incelenen 1.8 milyon sayfanın %90.63’ü Google’dan hiç trafik alamıyor ve detaylı incelendiğinde bu sayfaların hiç backlink’e sahip olmadığı gözlemleniyor.

Kitlenizi İşletme Güncellemelerinizle İlgili Bilgilendirin

Kitlenizi güncel olarak çalışma saatleriniz, hizmet şekliniz ve teslimatlarla ilgili değişiklikler hakkında bilgilendirin. Özellikle COVID-19 pandemisiyle birlikte milyonlarca işletmenin hizmet şekli, çalışma saatleri ve teslimat yollarında zorunlu değişikliklere gitmesiyle bu konu daha da önem kazandı.

my-business-isletme-guncellemeleri

İşletmenizle ilgili tüm değişiklikleri hem Google My Business hem de internet siteniz üzerinden kitlenizle paylaşarak işletmenizi güncel tutun. COVID-19 nedeniyle olan değişiklikler veya işletmenizle ilgili diğer güncellemeleri hedef kitlenizle paylaşarak sunduğunuz hizmetlerle ilgili son durumu onlara bildirin.

my-business-isletme-guncellemeleri-2

Lokal Platformlara İşletmenizi Kaydedin

Bölgenizdeki tanınmış online platformlarda ve global işletme platformlarında yer almanız, daha fazla kişinin sizi keşfetmesi ve markanızın Google gözünde güvenilirlik kazanması için önemlidir. İnternet siteniz için güçlü bir SEO desteği sağlaması ve işletmenizin bilinirliğine katkıda bulunması için aşağıdaki platformlara işletmenizi ekleyerek adres, telefon ve hizmet bilgilerinizi kaydedebilirsiniz;

  • Yelp
  • FourSquare
  • Zomato
  • About Us
  • Angie’s List
  • Bing Places
  • HotFrog
  • Best of the Web

Değerlendirmelerinizi Takip Edin ve Yönetin

Başta Google My Business olmak üzere işletmenizi kaydettiğiniz Foursquare, About Us ve Yelp gibi platformlarda işletmenize insanlar tarafından yapılan yorumları aktif bir şekilde takip etmek işletme itibarınız için çok önemlidir. Bugün bir lokal arama yaptığınızda organik arama sonuçlarından önce My Business işletmeleri karşımıza çıkmakta. Arama sonuçlarındaki My Business alanında görünen işletme puanları, kullanıcıların işletmenin detayına tıklaması için önemli bir etkendir.

My Business’ta ve diğer platformlarda işletmenize gelen olumlu yorumlar ve puanlar işletmenizin itibarı ve güvenirliği için mükemmel sinyallerdir. Öte yandan kullanıcılar tarafından yapılan kötü yorumlar ve verilen düşük puanlar da işletmenizin itibarını zedeler. Hizmetinizden memnun kalmayan insanların işletmenize düşük puan vermesini ve kötü yorum yapmasını engelleyemezsiniz. Fakat olumsuz yorumları takip edip buradaki süreci iyi yöneterek insanların işletmenizle ilgili neden kötü yorum yaptığını öğrenebilir ve onlara yardımcı olabilirsiniz. Moz tarafından yapılan araştırmaya göre yapacağınız bu hamle, Google için olumlu bir sinyaldir.

my-business-isletme-degerlendirmeleri

Müşterilerinizi dinlemek, yaşadıkları olumsuz deneyimi unutturacak aksiyonlarda bulunmak yerel SEO performansınıza doğrudan katkı sağlayacaktır. Hepsinden önce, olumsuz yorum yapan kullanıcılara yanıt vererek onları yeniden kazanmaya çalışmak bile insanların işletmenize bakış açısını değiştirir ve işletmenizi ilk defa gören biri bu çabanızdan etkilenebilir. İşletmenizle olumsuz deneyim yaşayan müşterilerinizi mutlu etmek için vereceğiniz çaba, insanları etkileyecektir.

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

İç SEO 29 Nisan 2021

Tarama Bütçesi (Crawl Budget) Optimizasyonu Rehberi

Anıl Zengin

Tarama bütçesi optimizasyonu (Crawl budget optimization), SEO çalışmaları kapsamında arama motoru botlarının internet sitesindeki önemsiz sayfalar yerine önemli sayfaları taramasını ve arama sonuçlarında listelenmesini sağlamak amacıyla gerçekleştirilen bir optimizasyondur. Tarama bütçesi optimizasyonu ile birlikte dizine ekleme amacıyla internet sayfalarını tarayan Google botunun (Googlebot), sitenizdeki önemli sayfalara yönlendirilmesi sağlanır.

Böylece Google’ın her internet sitesini taramak için ayırdığı farklı miktarlardaki sınırlı tarama bütçesinin en verimli bir şekilde kullanılması ve SEO için önemsiz sayfalar yerine değerli sayfalara harcanması amaçlanır.

Googlebot Nasıl Çalışıyor?

Bilindiği üzere Google’ın interneti tarayan ve keşfettiği sayfaları dizine ekleyen botları bulunmakta. Google botları, internet ortamında farklı sayfalarda yer alan tüm bağlantıları takip eder ve keşfedilen tüm sayfaları işlemeye başlar. Elde ettiği sayfaları işleyerek taranan sayfaların neyle ilgili olduğunu çeşitli teknolojilerle belirler ve sayfaları indeksleme öncesinde bir havuzda toplar. Devamında ise havuzda topladığı sayfaları 200’ü aşkın SEO sıralama faktörü arasından geçirerek arama sonuçlarında pozisyonlandırır.

Temel olarak bakarsak, Google’ın interneti tarayan ve internet sayfalarını arama sonuçlarında belli kurallara göre sıralandıran botları sırasıyla Tarama (Crawling), Dizine Ekleme (Indexing) ve Sıralama (Ranking) ana başlıklarında işlem gerçekleştirir ve Google arama motoru temelde bu yapıda çalışır.

googlebot-nasil-calisiyor

Tarama (Crawling)

Google botları, yeni sayfaları keşfetmek veya mevcut sayfaları tekrar taramak için herhangi bir veri merkezi ya da ortak bir URL havuzu kullanmaz. Erişmesine izin olan internet sayfalarını sürekli olarak tarar ve burada bulduğu yeni iç ve dış tüm bağlantıları da takip ederek tarama sırasına alır. Google botları, yeni sayfa keşfetme ve tarama sürecinde internet sayfalarını, Google Haritalar bağlantılarını, Google My Business bağlantılarını ve herkes açık kaynakları ve veritabanlarını kullanır. Ayrıca internet sitesi sahipleri tarafından sunulan site haritalarından elde edilen tüm bağlantıları tarayan Google botları, yine bu sayfalarda keşfettiği tüm bağlantıları da tarama sırasına dahil eder ve tarar.

En basit tabiriyle bir arama motoru olan Google’ın, temel çalışma prensibi olarak internete yeni eklenen sayfaları keşfetmek ve listelemek için aralıksız olarak internet üzerinde tarama gerçekleştirir ve arama sonuçlarında kullanıcılara sunabileceği yeni sayfalar ve bilgiler tespit etmek için çabalar. Tarama işlemi tamamlanan sayfalar, dizine ekleme aşaması için bir havuzda bekletilir.

Dizine Ekleme (Indexing)

Tarama aşamasında keşfedilen ve havuzda bekletilen sayfalar, Google arama sonuçlarında listelenmeden önce Google botları tarafından işlenir ve anlamlandırılarak sayfaların neyle ilgili olduğu çözümlenir. Sayfa içeriklerinde Google’a verilen tüm veriler (title, description, canonical, heading tags, Structured Data vb.) sayfa içeriğinin anlamlandırılmasında yardımcı olur ve Googlebot’a kolaylık sağlar.

Devamında da sayfalardan elde edilen anlamlı veriler, Google’ın veritabanlarına iletilir. Bu sayede taranan ve içeriği anlamlandırılan sayfalar, Google dizininde listelenmeye hazır konuma getirilir.

Sıralama (Ranking)

Yukarıdaki iki aşamada keşfedilen ve içeriği işlenen internet sayfaları, artık Google arama sonuçlarında pozisyonlanmaya ve kullanıcılara sunulmaya hazırdır. Google bu aşamada arama sonuçlarındaki sıralamaya etki eden 200’den fazla sinyali değerlendirir ve sayfaları bu süzgeçten geçirir.

Böylece kullanıcıların yaptığı aramalara en iyi yanıtı veren, en iyi kullanıcı deneyimi sunan ve en güvenilir sayfa(lar) tespit edilir ve arama sonuçlarında uygun pozisyonda listelenir.

Tarama Bütçesi (Crawl Budget) Nedir?

Tarama bütçesi, Googlebot’un bir sitede günlük olarak kaç sayfayı tarayabileceğini ve hangi sayfaları tarayacağına karar vermesini ifade eden bir SEO terimidir. En basit haliyle tarama bütçesi kavramı, Googlebot’un sitenize verdiği değeri ve gösterdiği ilgiyi yansıtan bir ifadedir. Googlebot, tarama öncesinde bir internet sitesinden kaç sayfayı ve hangi sayfaları tarayacağını değerlendirir.

Tarama Bütçesi Optimizasyonu Neden Yapılmalı?

Tarama bütçesi optimizasyonunda temel amaç, sayfalarımızı tarayan Google botlarını doğru sayfalara yönlendirmek ve önemsiz sayfalara yönelik tarama sıklıklarını mümkün olan en düşük seviyeye indirgemektir. Organik trafik potansiyeli sağlamayan, SEO stratejisinde bir anlamı olmayan ve içerik bakımından zayıf olan sayfaların tarama bütçesini tüketmesinin önüne geçmek için uygulanacak olan doğru bir tarama bütçesi optimizasyonu çalışması, SEO performansına ciddi oranda katkıda bulunabilir.

Temelde Google botlarını doğru yönlendirerek sitede taranması ve indekslenmesi istenen önemli sayfalara ulaşılabilirliğini rahatlatmak için tarama bütçesi optimize edilmelidir. Google botlarına kırık bağlantıların bulunduğu sayfaları, zayıf içeriğe sahip birçok URL’i, yönlendirmeli sayfaları, teknik anlamda çeşitli hatalar barındıran sayfaları ve açılış hızı çok düşük olan URL’leri sunmak iyi bir tercih değildir. Tarama bütçesinin kontrollü yönetilmemesi durumunda mevcuttaki önemli sayfalar yerine önemsiz olarak adlandırabileceğimiz sayfalar taranır ve indekslenir. Bu durumda da hem önemli varış sayfalarının hem de yeni açılan sayfaların taranma ve indekslenme sürelerinde ciddi gecikmeler ve aksaklıklar yaşanabilir.

Tarama Bütçesi Kontrolü Nasıl Yapılır?

Güncel durumda tarama bütçenizin ne seviyede olduğunu, günlük kaç sayfanızın Googlebot tarafından tarandığını kontrol etmek için Search Console ekranını kullanabilir ve buradan son 90 günlük tarama verilerinizi inceleyebilirsiniz. Tarama bütçenizi kontrol etmek için aşağıdaki adımları uygulayabilirsiniz;

  1. Search Console mülkünüzde sol menüden Ayarlar‘ı açın.
  2. Ayarlar sayfasındaki Tarama İstatistikleri Raporu’na tıklayın.
  3. Karşınıza gelen ekranda “Toplam Tarama İsteği” grafiğini görebilir ve günlük bazda kaç sayfanızın tarandığını inceleyebilirsiniz.

tarama-istatistikleri-raporu

Ayrıca aynı ekran üzerinde yer alan “Tarama istekleri dökümü” bölümünden de Googlebot’un ziyaret ettiği ve 200, 304, 404, 301, 302, 500 gibi yanıt aldığı sayfalarınızı inceleyebilir, buradaki sorunları gidermek için önemli ipuçları elde edebilirsiniz. Öte yandan Googlebot’un amacına göre “Yenileme” ve “Bulunma” seçeneklerini kullanarak URL’lerinizi inceleyebilirsiniz. Son olarak da “Googlebot’un Türüne Göre” alanından da mobil, masaüstü ve görsel Googlebot’ları ayrı ayrı ele alabilirsiniz.

Tarama Bütçesi Optimizasyonu Nasıl Yapılır?

Tarama bütçesi optimizasyonunda ve tarama bütçesi yönetiminde bireysel tercihlere ve sitenin kendi durumuna göre çeşitli değişkenler rol oynamaktadır. Bir sitenin tarama bütçesini etkileyen faktörlere genel olarak baktığımızda site hızı, site boyutu, içerik kalitesi, dahili bağlantı sağlığı, kopya içerik kullanımı, site içi bağlantı akışı ve site haritası ön plana çıkmaktadır. Bu değişkenler, sitenin günlük olarak kaç sayfasının Google botları tarafından taranacağına ve hangi sayfaların Googlebot tarafından ne sıklıkta ziyaret edileceğine etki eder.

Tarama bütçesi optimizasyonu kapsamında özellikle e-ticaret siteleri gibi URL sayısı yüksek olan sitelerde indekslenebilirlik tercihlerine göre bazı kararlar almak gerekebilir. Örneğin tarama bütçesi optimizasyonlarında genelde filtre sayfalarının Googlebot erişimine kapatıldığına ve taranmasının önüne geçildiğine rastlarız.

Fakat indekslenme tercihlerine göre örneğin bir Ayakkabı kategorisinde “42 Numara Siyah Spor Ayakkabı” filtresi bu tarama kısıtlamasından muaf tutulabilir ve indekse açılabilir. Buna benzer durumlarda indekslenebilirlik tercihlerine göre hareket etmek SEO performansını olumlu etkiler ve organik trafik artışı yaşanabilir.

1. Log Analizi İle Googlebot Hareketlerini İncelemek

Bilindiği üzere sunucular, tuttuğu log (günlük) dosyaları ile birlikte sayfalara yapılan ziyaretlerin verisini tutar. User-agent bilgisi, IP adresi, ziyaret edilen sayfa, ziyaret tarihi ve saati gibi veriler log dosyalarında depolanır. Sunucuda yer alan log dosyasının analiz edilmesiyle birlikte Googlebot’un sitenizde hangi sayfaları ziyaret ettiğini, hangi sayfaları ne sıklıkla ziyaret ettiğini ve gün içerisinde kaç sayfa taradığını tespit edebilirsiniz.

Log analizi, tarama bütçesi optimizasyonunda önemli ipuçları elde edeceğiniz temel bir çalışmadır ve buradan elde edeceğiniz notlarla birlikte sitenizde alacağınız aksiyonları belirleyebilirsiniz.

2. Site Hızını İyileştirmek

SEO’da en önemli faktörlerden biri olan site hızı, tarama bütçesini de etkileyen değişkenler arasında yer almakta. Hızlı yanıt veren bir sunucuya sahip olmak, site hızı için gerekli olan çalışmaları uygulamak ve özellikle Google’ın PageSpeed Insights aracının verdiği öneriler doğrultusunda optimizasyonlar yapmak site hızını olumlu etkiler. Site hızında yaşanacak olumlu değişimler, veri tüketimini iyileştirerek Google botlarının daha az sürede daha fazla sayfayı taramasına olanak sağlar.

Öte yandan özellikle 2021 Haziran ayı ortalarında arama sonuçlarında etkili olacak olan Core Web Vitals adlı Sayfa Deneyimi Metrikleri için de sayfa açılış hızını iyileştirerek ideal seviyelerde tutmak, SEO performansına olumlu katkısı bulunan bir diğer faktördür. Bu sebepten dolayı sayfalarınızın hızlı yüklenmesiyle birlikte hem tarama bütçesi hem de genel SEO performansı olumlu olarak etkilenecektir.

3. Sitenin Boyutunu Optimize Etmek

Yüksek kaynak dosyalarının yer aldığı bir sitenin yüklenme süresi de aynı orantıda artış gösterir ve sayfaların yüklenmesi gecikir. JS dosyalar, CSS dosyaları, görseller ve videolar boyutları itibarıyla bir sayfanın toplam boyutuna doğrudan etki eder. Artan sayfa boyutları, Google botlarının sayfayı tararken harcadığı süreyi ve indirdiği veri miktarını olumlu veya olumsuz olarak değiştirir.

Bu sebepten dolayı JS ve CSS dosyalarını sıkıştırmak, görsel ve video boyutlarını optimize ederek ideal seviyelere getirmek tarama bütçesini optimize ederken başvurabileceğiniz bir diğer önemli çalışmadır.

4. Kırık Linkleri Düzeltmek

Site içerisinde sayfalar arasında verdiğiniz bağlantıların çalışır durumda olması ve 200 yanıt kodunu sağlaması, tarama bütçesi optimizasyonu için önemli başka bir maddedir. Site içerisinde çalışmayan iç linkler bulundurmak ve 404 olarak bildiğimiz kırık linklere sahip olmak tarama bütçesini olumsuz etkiler. Google botları, bilindiği üzere bir sayfada gördüğü tüm bağlantıları takip eder ve tarama sırasına ekler. Bu sebepten dolayı site içerisinde çalışmayan veya silinen sayfaların bağlantılarını çalışan bağlantılarla değiştirerek tarama bütçenize katkıda bulunabilir ve daha sağlıklı bir tarama grafiği çizebilirsiniz.

5. Robots.txt Kurallarını Belirlemek

Sitenizi tarayan botların hangi dizinlere erişip erişemeyeceğini bildiren bir komut dosyası olan Robots.txt, tarama bütçesi optimizasyonunda aktif olarak kullanacağınız önemli bir alandır. Robots.txt dosyasına ekleyeceğiniz “Disallow” komutlarıyla birlikte Google botlarının hangi dizinleri, hangi URL’leri ve hangi parametreleri taramaması gerektiğini belirleyebilirsiniz.

Bu sayede SEO stratejinizde bir önemi olmayan URL’lerin taranmasının önüne geçebilir ve Google botlarını daha önemli olan sayfalarınıza yönlendirerek tarama bütçenizi optimize edebilirsiniz. Örneğin e-ticaret sitelerinde yer alan ürün sıralama filtreleri, arama sonuç sayfaları ve kategorilerdeki belli başlı ürün filtrelerinin bu şekilde taranması engellenebilir.

Parametreli URL’lerin taranmasını engellemek için örnek Robots.txt kuralları;

User-agent: *

Allow: /

Disallow: /*?sort*

Disallow: /*?p*

Disallow: /*?s*

6. Site İçi Bağlantı Akışını Yönetmek

Site içerisinde sayfalar arasında verilen bağlantılar Googlebot tarafından takip edilir ve taranır. Tarama bütçesi optimizasyonu kapsamında, SEO için bir anlam ifade etmeyen Sepet, Kullanıcı Sözleşmesi, Gizlilik Politikası, Profil sayfası vb. gibi sayfalar için site içerisinde verilen dahili bağlantılara eklenecek “nofollow” etiketi ile birlikte Google botlarının ilgili bağlantıları takip etmemesi sağlanır. Böylece A sayfasından Sepet sayfasına verilen bağlantı “nofollow” olduğu için Googlebot A sayfasından Sepet sayfasına gitmeyecek ve Sepet sayfasını taramayacak. Bu sayede Sepet sayfasına harcanacak tarama bütçesi başka bir noktaya kullanılmış olacak.

7. Kopya İçerikten Kaçınmak ve İçerik Kalitesini Artırmak

Site içerisinde yer alan içerikler, SEO performansına doğrudan katkıda bulunur ve kullanılan içeriğin kalitesine göre bu katkı değişiklik gösterir. Aynı şekilde tarama bütçesi için de kaliteli içerik kullanımı yapmak, Googlebot’un sayfalarınızı daha fazla ziyaret etmesini sağlayacağı gibi kaliteli içeriğe sahip olan sayfalarınızın öncelikli şekilde taranmasına ve indekslenmesine yardımcı olur.

İçerik optimizasyonu yaparken duplicate olarak adlandırılan kopya içerikleri ve birbirine çok benzeyen içeriklerinizi birleştirerek yüksek kaliteli ana bir içerikten konuyla ilgili kapsamlı bir içerik oluşturabilirsiniz. Bu sayede bilgi dolu, zengin, birçok arama sorgusunun hedeflendiği ve Google’ın değer verebileceği içerik sayfalarına sahip olarak tarama bütçenize de katkıda bulunabilirsiniz.

8. Site Haritası Bağlantılarını Güncel Tutmak

Site haritalarında yer alan bağlantıların güncel kalması ve çalışır durumda olması, tarama bütçesi yönetiminde önemli bir noktadır. Site haritalarını düzenli bir periyotta okuyan Google botları, haritalarda yer alan bağlantıları tarar ve indeksler. Tarama bütçesi yönetimi için site haritalarında 404 bağlantıların yer almaması, yönlendirmeli URL’lerin bulunmaması ve taranması/indekslenmesi engellenen URL’lere yer verilmemesi gerekir. Site haritaları, sitedeki önemli varış sayfalarını mutlaka barındırmalı ve içeriği güncellenen sayfalar için <lastmod> etiketine sahip olmalı.

İçeriği güncellenen sayfalarınız için örnek <lastmod> etiketi kullanımı;

<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9″>
<url>
<loc>http://www.example.com/</loc>
<lastmod>2005-01-01</lastmod>
</url>
</urlset>

9. Site İçerisindeki Yetim (Orphan) Düzeyindeki Sayfaların Tespiti

Site içerisinde herhangi bir yerden bağlantı almayan ve bundan dolayı ulaşılabilir olmayan sayfalarınız yetim (orphan) olarak adlandırılır. Site içerisinde bu şekilde kayıp statüde olan sayfalarınızın Googlebot tarafından daha rahat bulunabilir ve taranabilir olması açısından bu sayfaları tespit etmeniz ve sonrasında sitenizin menü, footer, sidebar, kategori, alt kategori veya ürün sayfaları gibi alanlardan linklerle bağlantısını sağlamanız tarama bütçesi optimizasyonunda yapmanız gereken bir diğer hamledir.

Bu sayede kullanıcıların site içerisinde menüden, kategorilerinizden veya alt kategorilerinizden hiçbir şekilde ulaşamayacağı sayfalarınızı daha görünür ve ulaşılabilir hale getireceksiniz. Beraberinde site içerisindeki bağlantı akışına dahil olacak olan yetim sayfalarınız, SEO performansı açısından da olumlu etkilenecek ve hem anahtar kelime pozisyonlarında hem de organik trafik rakamlarında sitenize katkıda bulunacaktır.

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

SEO 03 Mart 2021

Robots.txt Nedir? Nasıl Kullanılır?

Oskay Günaçar

Robots.txt (Robot Engelleme Standartı), web crawlers (arama motoru botlarının) web sitemizin hangi bölümlerini ne şekilde tarayacağını direktifler ile aktarabildiğimiz txt dokümanına verilen isimdir. Robots.txt dosyasını verimli kullanarak sitenizin alt klasörlerini, alt klasör içerisinde yer alan herhangi bir URL’yi yada herhangi bir prefix’i (alt kırılımı) içeren bir url bloğunu tümüyle arama motoru botlarının taramasına kapatabilir yada açabilirsiniz. Sitelerin ana domain dizininde barındırılan robots.txt dosyası günümüzün tüm büyük arama motorları tarafından takip edilmektedir. Yani robots.txt dosyanızda oluşturacağınız komut direktifleri arama motoru botları tarafından takip edilerek sizin yönlendirmeleriniz dahilinde sitenin tarama işlemleri gerçekleştirilecektir. Büyük arama motorlarının önemli bir bölümü robots.txt dosyasının komut direktiflerine uyumluluk gösterse de günümüzde hala robots.txt dosyasını pas geçen bot tipleri de mevcuttur.

Bu durumdan kaynaklı olarak Google,  robots.txt dosya yönlendirmelerine ek olarak her zaman için sayfa kaynak kodlarından meta robots işaretlemelerinin kullanılmasını da önermektedir.

Robots.txt Dosyası Nerede Barındırılır, Bulunur?

Üst bölümde değindiğimiz gibi web sitelerine özel olarak oluşturulan robots.txt dosyaları sitenin barındırıldığı ana dizin (httpdocs, public_html vb) üzerinde barındırılır. Herhangi bir sub folder (alt klasör) altına eklenmeden doğrudan site ana dizi içerisinde diğer dokümanlar ile birlikte “yalın (İşleme tabi tutulmadan)” olarak barındırılır.

Robots.txt Dosyası Nasıl Çalışır?

Robots.txt dosyası adından anlaşabileceği gibi .txt formatında oluşturulan ve içerisinde herhangi bir HTML işaretleme barındırmayan son derece kolay oluşturabilir bir web dokümanıdır. Ana dizine eklenen robots.txt dosyası web sitesinin URL uzantısı bölümüne /robots.txt yazarak görüntülenebilir. Pek çok kullanıcı için herhangi bir önem arz etmeyen robots.txt dosyasının barındırıldığı bu URL arama motoru botlarının siteye gerçekleştirdiği ziyaretlerde uğradığı mutlak adrestir.

Örneğin: https://boosmart.com/robots.txt

Web sitesini ziyaret eden arama motoru botları site üzerinde herhangi bir tarama işlemine başlamadan önce web sitesinde yer alan robots.txt dosyasını ziyaret ederek web sitesinin hangi bölümlerinin taramaya açık olup olmadığı ile alakalı direktifleri kontrol ederler.

Arama motoru botlarının tarama biçimlerinin yönetilmesinde görevli robots.txt dosyası görevi itibariyle bir rehber görevi görürken botlar için bağlayıcı bir yapı değildir. Yani arama motoru botlarının tamamı robots.txt dosyasında yer alan direktiflere uymakla yükümlü değildir ancak Google, Bing gibi arama motoru botları ilgili direktifleri takip ederler. Buna karşın harici (zararlı, amaçsız) botların büyük bir bölümü robots.txt dosyasında yer alan direktifleri görmezden gelerek serbest tarama gerçekleştirirler.

Robots.txt dosyası ile alakalı akılda tutulması gereken en önemli konu, subdomain yani asıl domainin bir alt domain yapısı içerisinde ayrıca bir robots.txt dosyasının oluşturulması gerektiğidir. Örneğin asıl domain olan boosmart.com içerisinde oluşturduğunuz bir robots.txt dosyası ornek.boosmart.com subdomaini için geçerli değildir. Subdomain üzerinde yer alan URL adresleri ile alakalı tarama direktifleri subdomain içerisinde oluşturulacak farklı bir robots.txt dosyası ile ayrıca yönetilmelidir.

Robots.txt Dosyasının Oluşturulması ve Kullanımı

Robots.txt herhangi bir text editörü yani metin oluşturma editörü (metin belgesi) ile kolaylıkla oluşturulabilir. Robots.txt oluşturulurken çeşitli protokol formatları kullanılarak robot tarama direktifleri oluşturulur. Protokol formatları kullanılarak arama motoru botlarının anlayacağı şekilde direktifler iletilir. Arama motoru botları için kullanılan protokol Robots Exclusion Protocol olarak adlandırılır.

Örneğin:

User-agent: *

Disallow: /

Robots.txt dosyası içerisinde kullanılan bir diğer protokol sitemap protokolüdür. Sitemap: kullanımı ile belirtilen protokol ile arama motoru botlarına sitenin haritası iletilerek site içerisinde yer alan URL’ler ile alakalı arama motoru botlarının takip edebileceği bir site haritası iletilir.

User-agent: *

Disallow:/

Sitemap: https://boosmart.com/sitemap.xml

User-Agent Nedir? Nasıl Kullanılır?

Robots.txt içerisinde user-agent: kullanımı ile ifade edilen user-agent bölümü arama motoru botlarını yani robotları doğrudan hedeflediğimiz, internette dolaşan her kullanıcı ve program için oluşturulan bilgilendirici bir string / kod dizgisidir. Web üzerinde gezinme gerçekleştiren kullanıcı ve programlar için oluşturulan user-agent ile ziyaret gerçekleştirilen sunuculara ziyareti gerçekleştiren kişi yada program ile alakalı bilgilendirme sağlanır.

Bot olmayan “insan” kullanıcılar için tipik bir user-agent içerisinde bağlantı gerçekleştirilen bilgisayarın işletim sistemi, bağlantının gerçekleştirildiği tarayıcının ismi gibi bilgiler yer alır.

Örnek: Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:47.0) Gecko/20100101 Firefox/47.0

Robots.txt dosyası içerisinde user-agent kullanılarak dosya içerisinde yer alan protokol ve direktiflerin hangi user-agent’a sahip bot için oluşturulduğunun bilgisi sağlanır.

Örneğin: User-agent: Googlebot

ifadesi kullanıldığında user-agent:Googlebot bölümünün altında yer alan ikinci bir user-agent bilgilendirmesine kadar olan direktif bloğu yalnızca Googlebot için geçerli olacaktır.

User-agent: Googlebot

Disallow:/deneme/

Allow:/deneme/burasiserbest.html

–! User-agent:Bingbot yazan bölüme kadar kullanılan tüm Allow ve Disallow direktifleri Googlebot’u ilgilendirir ve Googlebot tarafından takip edilir —!

User-agent: Bingbot

Disallow:/deneme/

Buradaki örnekte Googlebot için deneme klasörünün tamamı taramaya kapatılırken deneme klasörünün altında yer alan burasiserbest.html sayfası taramaya açılmıştır. Aynı robots.txt dosyası içerisinde siteyi ziyaret eden bingbot için ise deneme klasörünün (prefixinin) içerisinde yer alan tüm URL adresleri taramalara kapatılmıştır.

Allow, Disallow Nedir? Nasıl Kullanılır?

Robots.txt içerisinde kullanılan allow ve disallow direktifleri site içerisindeki hangi sayfaların taramaya açılıp kapanacağının belirtildiği protokollerdir. Allow’un türkçe karşılığı izin vermek ve Disallow’un karşılığı izin vermemektir. Bu bilgiden hareketle Allow: protokol kulllanımı ile site içerisindeki herhangi bir dizini, URL yolunu tümüyle yada kısmen taramalara açabilirsiniz. Aynı şekilde Disallow: kullanımı ile herhangi bir dizini, URL yolunu tümüyle yada kısmi olarak taramalara kapatabilirsiniz.

Tümüyle İzin Vermek  – Örnek:

User-agent: *

Allow:/

Bu şekilde bir robots.txt dosyası oluşturduğunuzda sitenizin tüm dizinini yani tüm URL adreslerini arama motoru botlarına açık hale getirirsiniz. Sitenizin tüm URL adresleri dizin fark etmeksizin taramalara dahil edilecektir.

Yalnızca Bir URL’yi taramalara açmak:

User-agent: *

Disallow:/burasi-kapali/

Allow:/burasi-kapali/ancak-burasi-acik.php/

Bu kullanımda Allow: kullanımı ile Disallow direktifi kullanılarak tamamen taramalara kapatılan /burasi-kapali/ alt klasörü içerisinden burasi-kapali/ancak-burasi-acik.php/ URL adresi taramalara açılmıştır.

Disallow komutu ile taramalara kapatılan bir dizin içerisinden istediğiniz herhangi bir url’yi allow: direktifi ile taramalara açabilirsiniz. Bu noktada tümüyle sitenize özel bir robots.txt yapısı kurgulamanız mümkündür.

Siteyi Tümüyle Taramalara Kapatmak:

User-agent: *

Disallow:/

Bir URL’yi yada alt klasörü taramalara kapatmak:

User-agent:*

Disallow: /bu-klasoru-tarama/

Disallow: /search/

vb.

Robots.txt Özel Direktifleri

Web sitenizin yapısının derinliği ve sitenizin büyüklüğüne göre robots.txt üzerinden arama motoru botlarına sağlayacağınız direktiflerin yoğunluğu ve ihtiyaçlarınız değişiklik gösterecektir.

Bu noktada özellikle çeşitli durumlar için olmazsa olmaz özel bir kaç direktif (düzenli ifadeler) ile arama motoru botlarını son derece verimli şekilde yönlendirebilirsiniz.

* Direktifi

Robots.txt dosyası içerisinde sıklıkla kullanılan * direktifi hem user-agent içerisinde hemde dizinler ile akalı direktiflerde tümü hepsi anlamına gelir. Herhangi bir protokol içerisinde * ifadesini kullandığınız durumda tümü (hepsini) kast ettiğiniz bilgisini robots.txt dosyanızı görüntüleyen arama motoru botlarına sağlarsınız.

Örneğin:

User-agent: *

ifadesi ile tüm user-agent tipindeki arama motoru botlarına hitap edersiniz ve bu user-agent altında barındırdığınız tüm direktifler tüm arama motoru botları için aktif olur.

User-agent: *

Allow:*

Bu şekilde bir kullanım gerçekleştirdiğinizde tüm user-agent’lar için tüm sitenin taranabilir olduğunu bildirirsiniz.

User-agent: *

Allow: */tesekkurler/

Bu şekilde bir kullanım gerçekleştirdiğinizde tüm user agent’lar için ön eki (üst klasörü) ne olursa olsun /tesekkurler/ sayfasının taranabilir olduğunu söylemiş olursunuz.

$ Direktifi

Robots.txt dosyası içerisinde sıklıkla kullanılan bir diğer direktif $ ifadesidir. * ifadesinden farklı olarak robots.txt üzerinde belirtilen herhangi bir string $ ifadesi ile sonlandırılır. Yani robots.txt üzerinde belirttiğiniz herhangi bir URL yada uzantı için $ ifadesini kullandığınızda arama motoru botları ilgili işlemin belirtilen string (metin) ile sınırlı olduğunu anlayacaktır.

Örneğin:

User-agent: Googlebot

Disallow: *.webp$

bu tarz bir robots.txt direktifinde ön eki ne olursa olsun yalnızca webp formatına sahip url’lerin (adreslerin) arama motoru botları tarafından taranmasının istenmediği bilgisini arama motoru botlarına sağlarsınız.

Bu kullanım da *. ifadesi ile ön eki (ismi) ne olursa olsun ve $ kullanımı ile de formatın yalnızca webp ile sınırlı olduğunu belirtmiş olursunuz.

Robots.txt Dosyası SEO için Neden Önemlidir?

Robots.txt dosyasının web sayfalarının sıralamasında doğrudan veya dolaylı olarak herhangi bir katkısı söz konusu değildir. Robots.txt dosyasının web siteleri ve SEO süreçleri için önemli olmasının en temel sebebi taranabilirlik noktasında üstlendiği görevdir. Hatalı şekilde oluşturulmuş bir robots.txt dosyası sitenizin tamamının yada belirli bir bölümünün arama motoru botları tarafından taranamaz hale gelmesine sebebiyet verebilir. İlgili durumda web siteniz SEO noktasında ne kadar başarılı olursa olsun arama motoru botları sayfalarınızı tarayamayacağından Google’da yer alamayacaksınız.

Web sayfalarınızın arama motoru botları tarafından bulunabilir olmasını sağlamanın anahtar adımlarından olan robots.txt aynı zamanda sitenizin verimli bir şekilde taranabilmesi noktasında da kritik rol oynar. Başarılı ve doğru direktifler ile arama motoru botlarının sitenizin gereksiz bölümlerine ulaşmasını engelleyebilir ve sitenizin kritik bölümlerinin çok daha sık şekilde taranmasını sağlayabilirsiniz.

Örneğin; E-ticaret siteleri için teşekkürler sayfaları arama sonuçlarında trafik getirmeyen önem skalası düşük sayfalar olduklarından robots.txt dosyası üzerinden bu sayfanın taramaya kapatılması tarama bütçesinin optimizasyonunda başarılı bir hamle olacaktır.

Robots.txt Kullanırken Dikkat Edilmesi Gerekenler

  • Hedeflediğiniz botlara özel oluşturduğunuz direktiflere ve user-agent isimlerine dikkat edin. X bir bot için taramaya kapatmak istediğiniz sayfayı yanlışlıkla tüm botlar için kapatmayın.
  • Sitenizde mutlaka düzgün yapılandırılmış bir robots.txt dosyası kullanın. Hatalı formata sahip robots.txt dosyaları direktiflerinizin geçersiz olmasına neden olabilir.
  • Robots.txt dosyanız içerisinde mutlaka Sitemap: protokolünü kullanın ve sitenizin site haritasını (haritalarını) robots.txt dosyanızda belirtin.
  • Sitenizin önemsiz, taranmasını istemediğiniz alanlarını mutlaka robots.txt kullanarak engelleyin. Tarama bütçesinin optimize edilmesinde robots.txt çok kritik bir rol oynamaktadır.
  • Subdomain ve ana domain için ayrı ayrı robots.txt dosyaları oluşturun. Ana domainde oluşturulan robots.txt dosyası subdomaini kapsamamaktadır. Aynı şekilde subdomainde oluşturulan direktifler ana domaini etkilemezler.

 

SEO 17 Şubat 2021

Google E-A-T Kavramı ve SEO İlişkisi

Anıl Zengin

Google E-A-T, “Expertise, Authority, and Trust” (Uzmanlık, Yetkinlik ve Güvenilirlik) anlamına gelen, özellikle bazı önemli kategorilerde (YMYL) yer alan siteler için kritik öneme sahip olan bir terimdir ve Google tarafından değerlendirilen önemli bir konudur.

Google E-A-T Ne İşe Yarar?

E-A-T, internet sitelerinden toplanan “Expertise, Authority, and Trust” yani Uzmanlık, Yetki ve Güvenilirlik konularına dair verilerin, arama sonuçlarının daha iyi getirilmesi için Google tarafından kullanılmasını ifade eder. E-A-T ile elde edilen veriler, Google’ın bir sitenin güvenilir olduğunu, alanında uzman ve yetkin olduğunu anlamasını sağlar.

Google’ın resmi olarak tüm dünyada görev yapan ve arama sonuçlarını daha kaliteli hale getirmek için çalışan yüksek düzeyde eğitilmiş üçüncü taraf Kalite Değerlendiriciler’i bulunmaktadır. Bu kişiler, Google’a geri bildirimler sağlar ve hangi değişikliklerin arama sonuçlarını daha yararlı hale getirdiğini anlamaya yardımcı olmaktadır. Google, değerlendiricilerden gelen yanıtlardan yararlanır, ancak bu yanıtlar arama sonuçlarında sitelerin sıralanışını doğrudan etkilememektedir.

google-kalite-degerlendiriciler
Google’ın “Kalite Değerlendiriciler Arama sonuçlarımızı nasıl iyileştiriyor?” başlıklı makalesinde Arama Kalitesi Değerlendiricileri hakkında bilgi verilmektedir.

Aşağıda E-A-T kavramının temeli olan Uzmanlık, Otoriterlik ve Güvenirlik faktörlerine dair detayları inceleyebilirsiniz;

  1. Uzmanlık: Uzmanlık konusunda Google’ın güven kazanması için sitenizdeki bir içeriği yazan kişi, konuya gerçekten hakim olan bir uzman olmalıdır.
  2. Otoriterlik: Otoriterlik kazanmak için sitenize gelen bağlantılar veya markanızdan bahsedilen makaleler güvenilir kaynaklardan olmalıdır.
  3. Güvenilirlik: Google’ın gözünde güvenirlik kazanmak için Hakkımızda, Künye, Gizlilik Politikası, İletişim gibi bilgiler mevcut olmalıdır ve kullanıcılar bu bilgilere kolayca erişmelidir.

Google’ın 2015 yılında herkesin erişimine sunduğu Arama Kalitesi Değerlendiricileri kılavuzunda “Your Money or Your Life (YMYL) Pages” başlığı altında YMYL kapsamına dahil olan sitelere dair örnekler verilmiştir. Google’ın “Search Quality Evaluator Guidelines (Arama Kalitesi Değerlendiricileri)” adlı bilgilendirici kılavuzuna aşağıdaki bağlantıya tıklayarak erişebilirsiniz;

ymyl-pages-google
Google’ın sunduğu kılavuzda yer alan “Your Money or Your Life (YMYL) Pages” bölümü.

Google’ın sunduğu dökümanda YMYL sayfalarına örnek olarak verdiği siteler arasında;

  • Haber siteleri,
  • Alışveriş/E-Ticaret siteleri,
  • Döviz gibi para çevirmeye yönelik siteler,
  • Finans siteleri,
  • Yatırım siteleri,
  • Hükümet siteleri,
  • Kamu siteleri,
  • Yasal bilgilendirme siteleri,
  • Ebeveyn olmaya yönelik bilgilendirmeler veren siteler,
  • Sağlık siteleri,

yer almaktadır.

Google E-A-T Kavramına Yönelik Optimizasyon Önerileri

Siz de özellikle sağlık ve finans gibi “Your money, your life (YMYL)” kategorisine dahil bir internet sitesine sahipseniz, E-A-T kavramına uyumlu olmak ve Google’ın gözünde güvenilirlik ve değer kazanmak için aşağıdaki hamleleri mutlaka SEO stratejinize dahil etmelisiniz;

  1. Kullanıcıların güvenini kazanmak için sektörünüze, pazarınıza veya ticaretinize uyumlu olacak şekilde profesyonel belgelerinizi yayımlayın,
  2. Alakalı, doğruluğu kontrol edilen ve gerçekliğe sahip içerikler sunun,
  3. İçeriklerinizi güncel tutun,
  4. Müşterilerinizden değerlendirme ve yorumlar alın,
  5. Mümkünse bir Vikipedi sayfası edinin,
  6. Hakkımızda, Ekip veya Künye gibi sayfalarınızın olduğuna, erişilebilirliğine ve içeriklerinin yeterli olduğuna dikkat edin,
  7. Gizlilik Politikası, KVKK Bilgilendirme Metni ve Çerez Politikası gibi sayfalarınız mutlaka olmalı,
  8. Başta sektörünüzle ilgili olan sitelere ve haber ajansları gibi kitlelerin güvendiği platformlara yönelik PR çalışması uygulayın,
  9. Forum gibi kullanıcıların tartışıp fikir alışverişi yaptığı platformlarda varlığınız mutlaka olmalı,
  10. Web siteniz mutlaka HTTPS protokolünde çalışmalı ve güven sunmalı,
  11. İçeriklerinizde yazar adları veya yazar profili mutlaka yer almalı,
  12. İnsanların sizinle kolay iletişime geçebilmesi için iletişim kanallarınız erişilebilir olmalı,
  13. İçeriğinizden .gov ve .edu gibi otoriter sitelere bağlantılar verin,
  14. Otomatik oluşturulan (RSS vb.) içeriklerden kaçının,
  15. İçerik başlıklarınızda veya içeriklerinizde tıklama avcılığı (clickbait) yapmayın,
  16. Başka bir yerden alınmış kopya içerikleri kullanmayın.

E-A-T Kavramı SEO Performansını Nasıl Etkiler?

Her ne kadar Google’ın açıklamasından yola çıkarak E-A-T kavramının bir sitenin arama sonuçlarındaki sıralamasını etkilemediğini bilsek de, dolaylı yoldan Arama Kalitesi Değerlendiricileri üzerinden etkisi bulunmaktadır. Kullanıcıların güvenle gezinerek içeriğinizi tüketmesi, insanların markanıza/internet sitenize güvenmesi ve tüm internette sizinle ilgili olumlu yorumların yapılması E-A-T kavramına uyumlu olmanıza katkıda bulunacaktır. Devamında da Google’ın Arama Kalitesi Değerlendiricileri tarafından sitenizle ilgili olumlu oyların verilmesi, Google’ın bu geri bildirimleri arama sonuç sayfasını şekillendirirken kullanmasını sağlayacaktır.

Yani özetle, E-A-T terimine uyumlu olarak doğrudan sıralamanızda yükselme gerçekleşmez ve kısa vadede bunun bir sonucunu almanız pek mümkün olmaz. Fakat uzun vadede sitenizin ve markanızın güvenilirlik kazanmasıyla birlikte Google tarafından ödüllendirilmeniz oldukça mümkündür. Özellikle son algoritma güncellemelerine baktığımızda, her şeyden daha çok ön plana çıkan faktör E-A-T konusudur.

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

İç SEO 11 Şubat 2021

İçerik Optimizasyonu: SEO Performansınızı Artıracak 8 Hamle

Anıl Zengin

SEO çalışmalarında önem verilmesi gereken kritik konulardan biri de hiç kuşkusuz içerik optimizasyonudur. Güçlü, zengin ve kullanıcıların aradığı sorgulara yanıt veren içeriklere sahip olmak, SEO’da kısa ve uzun vadede kazanan tarafta da olmaya bir kapı açıyor. Özellikle Google’ın son çekirdek güncellemeleri sonrasında içeriği zayıf, yetersiz ve kopya düzeyde olan internet sitelerinin ciddi derecede olumsuz etkilenmesi, içeriğin Google’ın gözünde ne kadar değerli olduğunu bize bir kere daha gösteriyor.

SEO Performansınızı Artıracak İçerik Optimizasyonu İpuçları

Peki içerik optimizasyonunda nelere dikkat etmeliyiz? İçerik oluştururken ya da bir içeriği güncellerken nasıl bir yol izlemeliyiz? İşte SEO stratejiniz dahilinde içeriklerinizi iyileştirirken kullanabileceğiniz ipuçları ve önemli noktalar…

Kullanıcı Niyeti (User Intent) Uyumlu İçerikler Oluşturmak

Kullanıcı niyeti (user intent) kavramı, kullanıcının bir aramayı hangi amaçla ve ne tür bir niyetle ilgili aramayı yaptığını Bilgi Alma, Satın Alma veya Yol Tarifi (Gezinme) gibi kategorilerde SEO optimizasyonu açısından anlamamızı sağlar.

Her yıl karşımıza çıkan “kullanıcı niyeti” yani “user intent” konusunu eğer şimdiye kadar SEO stratejinize dahil etmediyseniz, artık daha fazla geç kalmayın. Kullanıcıların yaptığı bir aramada asıl niyetini anlamak ve yaptığı aramayı neden yaptığını tahmin etmek, SEO stratejinizde önemli bir kilometre taşı olabilir. Günümüzde özellikle Google başta olmak üzere arama motorları, kullanıcıların yaptığı aramaları neden yaptığını anlar ve yaptığı aramaya karşılık olarak en iyi verimi alabileceği sayfaları dizinde listeler. Tüm bunlara genel olarak baktığımızda da SEO stratejilerini oluştururken ve sürdürürken, kullanıcıların arama niyetine yönelik optimizasyonlar yapmak hem kullanıcı deneyimini hem de organik dönüşüm rakamlarınızı doğrudan etkiler.

Örneğin, “en ucuz Android telefonlar” aramasını yapan bir kullanıcı doğrudan ürün satın almaya yönelik bir eğilim gösterirken, “Android telefonlar” aramasını yapan bir kullanıcı ise henüz bir satın alma niyetinde değildir ve bilgi edinme/araştırma amaçlı olarak bu aramayı yapar. Sektörünüzle uyumlu olarak anahtar kelimeleri bu şekilde analiz ederek ve gruplandırarak sayfalarınızı optimize edebilir ya da doğrudan kullanıcıların arama niyetine kesin karşılık verebilecek sayfalar oluşturabilirsiniz.

kullanici-niyetleri-ve-seo

İkinci bir örnek vermek gerekirse, “En ucuz Android telefonlar” aramasına karşılık tüm Android telefonları göstereceğiniz bir sayfa yerine oluşturacağınız yeni bir sayfada ücreti düşük olan telefonları listeleyebilirsiniz. Ya da “Android telefonlar” arama sorgusunu standart bir ürün listeleme sayfası ile hedeflemek yerine özel bir sayfa oluşturarak kullanıcıların Android telefonları görüp özelliklerini karşılaştırmalarına olanak sunabilirsiniz.

Anlamsal Yakınlığı Bulunan Kelimelere (LSI: Latent Semantic Indexing) Önem Vermek

SEO uyumlu bir içeriği oluştururken anlamsal olarak birbirine yakın ve alakalı kelime gruplarının kullanılmasına LSI uyumlu içerik diyebiliriz. LSI uyumlu bir içerik hazırlayabilmek için ilgili kelime grubunu önce Google’da aratarak ön sıralarda çıkan sonuç sayfalarının hangi kelime gruplarıyla hazırlanan bir kelime içerdiğini analiz etmek akıllıca olacaktır.

İçerik oluşturma ve içerik optimizasyonu için anahtar kelime araştırması aşamasından başlayarak sayfaların son haline kadar olan süreçte dikkat edilmesi gereken önemli bir nokta da anlamsal olarak birbiriyle yakınlığı ve birbiriyle bağı bulunan anahtar kelimeleri bir arada kullanmaktır. Bu sayede tek bir sayfa üzerinden onlarca anahtar kelimeyi hedeflemeniz mümkün hale gelir.

Arama motorlarının sayfa içeriğinde anlatılan konunun ne olduğu çözümlemesi ve anlatılan şeyin tam olarak neyle ilgili olduğunu anlaması için anlamsal olarak benzerliği bulunan ve birlikte sık sık kullanılan anahtar kelimelere içerikte yer vermek iyi bir yöntemdir. Buna bir örnek vermek gerekirse; “futbol” kelimesini hedefleyen bir içerik oluştururken içerikte yer vereceğiniz “gol, forvet, kale, faul, kırmızı kart ve forma” gibi anahtar kelimeler, arama motoru botlarının içeriği kolayca çözümlemesine ve anlattığınız konunun futbolla alakalı olduğunu anlamasına büyük katkıda bulunur. Bu sayede futbol ile ilgili kapsamlı bir içerik hazırlamaktan hariç olarak “gol, forvet, kale, faul, kırmızı kart ve forma” gibi anahtar kelimeleri de hedeflemeniz mümkün hale gelecektir.

anlamsal-yakinligi-bulunan-kelimeler-ve-seo

Özellikle E-Ticaret sitelerinin SEO stratejilerinde kullanılması şiddetle tavsiye edilen bir teknik olan bu yöntem, ürünlerinizle ilgili detaylı bilgi sunmanıza ve SEO performansınıza ciddi katkıda bulunmanıza olanak sağlar.

anlamsal-yakinligi-bulunan-kelimeler-ve-seo-2

Örneğin, bir televizyon ürününün açıklamasında kullanacağınız “4K, smart, çözünürlük, Netflix, HDMI, Wi-Fi, 3D ve inç” gibi kelimeler, televizyonun özelliklerine dair tüm detayları kolayca sunmanıza ve bu özelliklerde bir televizyon arayan kullanıcıların karşısına çıkmanızda büyük rol oynar.

LSI (Latent Semantic Indexing) kelime gruplarını daha iyi keşfetmek için aşağıdaki araçtan faydalanabilirsiniz.

https://lsigraph.com

Uzun Kuyruklu Kelimelerden (Long Tail Keywords) Oluşan Aramaları Hedeflemek

Uzun kuyruklu anahtar kelimelerin (Long Tail Keywords) kullanıcılar tarafından kullanılması yıllardan beri devam ediyor ve arama motorlarına yön veriyor. Yapılan araştırmalar ve gözlemler, uzun kuyruklu sorgular yapan kullanıcıların satın alma eğilimlerinin daha yüksek olduğunu ortaya koymakta. Ahrefs, uzun kuyruklu anahtar kelime kullanımıyla ilgili yaptığı bir araştırmada ABD veritabanındaki 1,9 milyar anahtar kelimeyi analiz etti ve araştırma neticesinde bu kelimelerin %92,42’sinin aylık aranma hacminin 10 veya daha az olduğu tespit edildi. Bu da 1,9 milyar anahtar kelime arasında %92,42’sinin uzun kuyruklu ve popüler olmayan sorgulardan oluştuğunu ortaya çıkarıyor.

uzun-kuyruklu-anahtar-kelime-kullanim-oranlari

Öte yandan birçok SEO uzmanı veya SEO’ya yeni başlayan kişiler, kısa sorguların ve doğrudan ana anahtar kelimelerin her zaman daha çok arandığını savunabilir. Fakat Ahrefs’in analizine baktığımızda “lose weight” sorgusu aylık 35 bin aranırken “how to lose weight” sorgusu aylık 90 bin arandığını gözlemliyoruz. Bu da uzun kuyruklu anahtar kelimelerin bazı durumlarda ana anahtar kelimelerden daha fazla arandığını gösteriyor. Ayrıca Ahrefs’in 1,9 milyar anahtar kelime üzerinde yaptığı araştırmada aylık 10.001’den fazla aranan anahtar kelimelerin %29.13’ünün üç veya daha fazla kelimeden oluştuğu keşfedildi. Bu da uzun kuyruklu anahtar kelimeleri SEO stratejisine daha fazla geç olmadan dahil etmek için oldukça yeterli bir sebep.

uzun-kuyruklu-anahtar-kelime-aranma-hacmi-ornegi

Son olarak da geride bıraktığımız 2020 yılında pandemi ve karantina süreçlerinden dolayı kullanıcıların evlerinde daha fazla kalmasıyla gelişen bu süreçte, interneti hayatında hiç kullanmadığı kadar sık kullanan kullanıcıların arttığını ve mevcut kullanıcıların da internette daha fazla zaman geçirdiğini düşünürsek, uzun kuyruklu arama sorguları sayısını günden güne artırıyor diyebiliriz.

Uzun kuyruklu kelimeleri (Long Tail Keywords) tespit edebilmek için aşağıdaki araçlardan faydalanabilirsiniz.

https://keywordtool.io/long-tail-keywords

https://answerthepublic.com

Daha Uzun İçerikler Kullanmak

İçerikleri olabildiğince uzun tutmak genel olarak SEO’da başarı elde etmenize kesinlik katan bir şey değildir. Ancak anlatacağınız konunun da ne olduğuna bağlı olarak içeriklerinizi ideal uzunlukta servis etmek sizi bir adım ileriye götürebilir. SEMrush’un İçerik Pazarlamasının Durumu Raporu‘na göre 3000 kelimeden oluşan içerikler, üç kat daha fazla trafik alıyor. Ayrıca 901 ile 1200 kelime arasındaki ortalama uzunluktaki yazılar 3,5 kat daha fazla backlink elde ediyor. Bu veriler göz önünde bulundurulduğunda, içerikleri uzun tutmak ve kullanıcıyı sıkmadan gerçekten ihtiyacı olan bilgileri kaliteli bir yazıyla sunmak SEO’da başarı elde etmenize ve organik trafiğinizi ciddi oranlarda artırmanıza yardımcı olur.

İçerik uzunluğunda dikkat edilmesi gereken en önemli nokta, içerik kalitesinin uzunlukta ters orantıda kaybedilmemesidir. Yukarıdaki veriler dahilinde tüm içeriklerinizi oldukça uzun tutmak için içeriğinizde gereksiz ifadelere yer vermeniz doğru bir davranış değildir ve kullanıcılara sıkıcı içerikler sunmanıza yol açar. Bu nedenle servis ettiğiniz içerikleri belli bir yapıda sıkıcı olmayacak şekilde oluşturabilirsiniz. Aşağıdaki maddelerde yer alan önerilerimiz, bu konuda size fikir sağlayacaktır;

  1. Uzun paragraflar kullanmayın ve kullanıcılara görüntü açısından parçalanmış bir içerik yapısı sunun,
  2. İçeriğinizde anlattığınız konuyu işe yarayabilecek tüm detaylarıyla anlatın,
  3. H2 ve H3 ara başlıklarla içeriğinizi bölümlendirin ve böylece mobilde de rahat bir görünüm elde edin,
  4. İçeriğinizde kaynak vermeniz gereken noktalarda otoriter kaynaklara link vermekten çekinmeyin,
  5. Ziyaretçilerin içeriğinizi kolayca sosyal medya profillerine servis edebilmeleri için içeriklerinizin üst ve alt kısımlarına paylaşma butonları yerleştirin.

İçerikleri Görsel, Video ve Maddeler Gibi Materyallerle Zenginleştirmek

İçeriklerinizde salt metin kullanmaktan ziyade görsel, video ve buna benzer çeşitli materyaller ile zenginleştirmek, sunduğunuz içeriğin daha dolu, bilgi verici, açıklayıcı olmasını sağlar. Böylece içeriklerinizi tüketen kullanıcılar daha iyi bir deneyim yaşar; görsel ve video gibi materyallerle desteklediğiniz içeriklerinizin SEO performansı artar.

Sunduğunuz içeriği destekleyici yan materyaller ile kullanıcılara servis etmeniz, aynı zamanda içeriklerinizi ziyaret eden kullanıcıların sayfada daha fazla zaman geçirmesini sağlayacak ve kullanıcıların sayfayı hemen terk etmesini de engelleyecektir. Özellikle infografik, video ve buna benzer bileşenlerin olduğu sayfalarda kullanıcıların daha fazla zaman geçirmesi olasıdır. Bu da SEO performansınızı olumlu olarak etkileyen bir başka faktördür.

İçeriklerinizde Sıkça Sorulan Sorular Alanına Yer Vermek

İçerikte kullanılan metnin çeşitliliğini sağlamak için Sıkça Sorulan Sorular’a yer vermek oldukça faydalı bir hareket olacaktır. Sıkça sorulan sorular ile birlikte kullanıcıların doğrudan sorduğu sorulara yanıt verebilir ve böylece arama sorgularını hedefleyebilirsiniz. Ayrıca sıkça sorulan sorular alanında kullanacağınız soru ve cevaplar, uzun kuyruklu arama sorgularını hedeflemenize de olanak sağlayacaktır.

faq-sikca-sorulan-sorular-structured-data (1)

Öte yandan kullanacağınız soru – cevap metinlerini FAQ Yapısal Veri İşaretlemesi ile işaretleyerek arama sonuçlarında zengin ve farklı bir görünüm elde edebilirsiniz. Bilindiği üzere Sıkça Sorulan Sorular (FAQ) Yapısal Veri İşaretlemesi, Google’ın 2019 yılında duyurarak arama sonuçlarına dahil ettiği bir bileşen. FAQ işaretlemesiyle birlikte rakiplerinizden farklı bir görünüm elde edebilir, kullanıcıların dikkatini çekebilir ve CTR oranlarınızı artırabilirsiniz.

Kopya İçerik Kullanmaktan Hemen Vazgeçmek

Kopya içerik kullanmak, Google tarafından cezalandırılmaya kadar gidebilen ve SEO performansınızın olumsuz etkilenmesine yol açan bir sorundur. Sayfalarınızda yer verdiğiniz içerikler veya yayınladığınız yeni içerikler kopya durumundaysa, SEO performansınız bu durumdan olumsuz etkilenir.

Tüm site genelini tarayarak kullandığınız kopya içerikleri tespit etmeniz ve beraberinde bu içerikler hakkında silmek, yeniden düzenleyerek özgün hale getirmek veya kopya içerik içeren sayfalarınızı alakalı özgün içerikli bir sayfaya yönlendirmek gibi kararlar almanız gerekecektir.

İçeriklerinizi Ara Başlıklarla Bölümlendirmek

Bir içeriğinizde anlattığınız konuyu ara başlıklarla destekleyerek bölümlere ayırmak, içeriğin okunabilirliğine katkıda bulunacağı gibi aynı zamanda Google’ın Passage Ranking sistemine de uyumlu hale gelmesini sağlar. Bilindiği üzere Google, geçtiğimiz Ekim ayında Passage Ranking sisteminin arama sonuçlarına dahil edildiğini duyurmuş ve alt başlıklara sahip olan kapsamlı içeriklerin alt başlıklardaki anahtar kelimelerde de sıralanma şansına sahip olacağını belirtmişti.

Bundan dolayı özellikle uzun ve kapsamlı içeriklerinizi ara başlıklara bölmek, hem anlatılan konuyla ilgili farklı anahtar kelimeleri hedeflemek hem de uzun içeriklerinizin okunabilirliğini kolaylaştırmak için yapabileceğiniz iyi bir hamle olacaktır.

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/