SEO 24 Nisan 2024

SEO Visibility Metriği Neden Bir KPI Olarak Baz Alınmamalı?

Anıl Zengin

SEO Visibility metriği, SEO performans raporlarında ve KPI’larda sıkça gördüğümüz ve bir hayli ciddiye alınan bir metrik olarak sektörümüzde yer ediniyor. SEO Visibility metriğindeki olumlu/olumsuz değişimler, çoğu zaman ana KPI metriklerindeki değişimlerden daha önemli olarak kaale alınabiliyor. Hazırladığım bu yazıda, SEO performans değerlendirmenizde veya SEO KPI’larınızda SEO Visibility metriğini neden ciddi şekilde baz almamanız gerektiğine dair detaylardan bahsettim.

SEO Visibility Nedir?

SEO Visibility, bir web sitesinin arama sonuçlarında belirli anahtar kelimelerde ne sıklıkta yer aldığını ve ne kadar görünür olduğunu ifade eden bir metriktir. Sadece ham trafik rakamlarıyla değil, aynı zamanda site içeriğinin alakalılığı, teknik optimizasyon yeterliliği ve kullanıcı deneyimi gibi faktörlerle de ilişkili olarak değişiklik gösterir. SEO Visibility genellikle 0 ila 100 arasında bir yüzde ile ifade edilir.

searchmetrics-seo-visibility-grafigi
Searchmetrics

SEO Visibility Nasıl Hesaplanır?

SEO Visibility hesaplaması, belirlenen anahtar kelimelerin web sitesi sıralamalarını değerlendirerek yapılır. Sıralama elde edilen her pozisyon için belli bir katsayıda Visibility puanı atanır ve ilk sayfa veya ilk üç sonuç gibi daha yüksek sıralamalar daha fazla katsayıda puan kazanırken, ikinci sayfa ve sonrası gibi daha düşük sıralamalar daha az katsayıda puan alır. Bu puanlar toplanarak sitenin genel SEO Visibility skoru hesaplanır.

SEO Visibility Metriği Neden Ana KPI’larınızdan Olmamalı?

SEO Visibility metriğini SEO performansınızı değerlendirmek veya bir SEO KPI’ı olarak baz almak için tercih edebileceğiniz en son şey olarak bilmeniz gerekiyor. Özellikle de kendi belirlediğiniz bir anahtar kelime grubunun değeri olmadıkça SEO Visibility yanıltıcı ve ilkel bir metriktir. Özellikle yöneticiler, KPI hedeflerinde ve performans raporlarında neye dayanarak oluşturulduğu net olmayan SEO Visibility metrik değerlerini fazlasıyla önemsiyor ve yükseliş/düşüş durumlarını ana KPI metriklerinden daha çok ciddiye alıyor.

Kısa Süreli Pozisyon Değişiklikleri

İkinci olarak, anahtar kelimelerinizdeki kısa süreli pozisyon değişiklikleri, SEO Visibility metriğindeki değerinizi çarpıtabilir. Özellikle yüksek aranma hacmine sahip kelimelerdeki kısa süreli pozisyon değişikliklerinin SEO Visibility değerindeki katsayıya etkisi yüksek olur ve bir kelimedeki birkaç sıralık pozisyon değişiminde bile SEO Visibility değerinde sert düşüşler/yükselişler görürsünüz.

Arama Sonuçlarındaki Pozisyon Dalgalanmaları

Bildiğiniz üzere arama sonuçlarında pozisyon dalgalanmaları her anahtar kelime için yaşanabiliyor ve Google kısa süreliğine herhangi bir kelimedeki pozisyonumuzu birkaç sıralığına değiştirebiliyor. Algoritma güncellemesi dönemlerinde daha sert pozisyon dalgalanmaları yaşansa da günlük olarak bile anahtar kelimelerinizde pozisyon dalgalanmaları görmeniz gayet olasıdır. Pozisyon dalgalanmalarının yaşandığı her durumda da SEO Visibility değeriniz geçici olarak farklı farklı değerlere sahip olabilir.

SERP-pozisyon-dalgalanmasi
SEMrush Sensor – SERP Dalgalanması

SEO Araçlarının Pozisyon Verisi Kaydetme Sıklığı

Arama sonuçlarındaki pozisyon dalgalanmalarının olduğu bir durumda SEO Visibility değerini takip ettiğiniz aracın siteniz için aldığı son veri, bir kelimedeki asıl pozisyonunuza denk gelmediyse SEO Visibility değerinize düşüş veya yükseliş olarak yansıyabiliyor. Anahtar kelimeler için pozisyon verisi takip eden SEO araçları, pozisyonları 24 saatte bir, 3 günde bir veya haftada bir gibi sıklıklarla güncelliyor ve pozisyon dalgalanmalarının olduğu bir senaryoda SEO Visibility metrik değeriniz olması gerekenden daha farklı şekillenebiliyor.

SEO Araçlarının Baz Aldığı Kelime Havuzu

Birçok SEO aracı, SEO Visibility metriğini hesaplarken sınırlı miktarda anahtar kelime kullanır ve bu anahtar kelimeler genellikle en çok aranma hacmine sahip kelimelerden oluşur. Böyle bir durum varken uzun kuyruklu anahtar kelimeleriniz başta olmak üzere birçok anahtar kelimedeki performansınızın bu hesaplamaya dahil edilmeme ihtimalini unutmamalısınız.

Manipülasyona Açıklık

SEO Visibility metriği, kolayca manipüle edilebilecek bir metriktir ve SEO Visibility değerini yükseltmek için başvurulabilecek Black Hat SEO taktikleri mevcuttur. Google’ın alakasız olan bir anahtar kelimede bile sayfalarınızı tetikleyerek pozisyon verme ihtimali bulunmaktadır. Örneğin internet sitenizde “Instagram’da bizi takip edin” başlıklı bir duyuru içeriği yayınladığınızda, Google’ın bu sayfanıza “Instagram” kelimesinde örneğin 40. sırada pozisyon vermesi olasıdır ve güçlü domainlerde bu sık karşılaşılan bir durumdur. Böyle bir senaryoda da SEO Visibility değeri yükselmiş gibi görünür ama bu tamamen manipülasyondur. Bunun gibi taktikler ve yöntemler, SEO Visibility metriğini manipüle edilebilir kılar.

SEO Visibility Metriği Ne Amaçlarla Baz Alınabilir?

  • SEO Visibility metriğini özellikle kendi belirlediğiniz anahtar kelime havuzundaki kelimelere göre takip ediyorsanız, genel olarak hedeflediğiniz anahtar kelime grubunuzdaki pozisyon değişikliklerini ve kelimelerdeki gösterim payınızı takip etmek için kaale alabilirsiniz. Fakat bütün bunlara rağmen bu metriği yine bir KPI olarak baz almamalısınız.
  • Eğer kendi anahtar kelime havuzunuz olmadan serbest bir anahtar kelime listesine göre SEO Visibility değerinizi takip ediyorsanız, bu listeden hedef olarak gördüğünüz anahtar kelimelerinizdeki Visibility ve pozisyon değişimlerine göz atmak ve genel olarak sektörünüzdeki kelimelerin trendini takip etmek iyi olabilir.
  • Rakiplerinizle ortak kelimelerde kıyaslamalı olarak Visibility değerlerinize göz atabilirsiniz. Özellikle hedef olarak gördüğünüz kelimelerde rakiplerinizin gösterim paylarının değişimini takip etmek yararlı olabilir. Fakat rakiplerinizin Visibility değişimlerini takip ederken kelimelerdeki pozisyonlarını da izlemek sağlamalı bir veriyi incelemeniz açısından yararlı olur.

 

Ek Kaynaklar

https://web.archive.org/web/20210516053957/https://www.evolvedsearch.co.uk/insights/why-searchmetrics-visibility-score-makes-a-terrible-kpi/

https://www.semrush.com/blog/seo-visibility/

Dijital Pazarlama Ajansı olarak, markanızın başarılı bir büyüme yolculuğuna çıkması için Boosmart’ın eşsiz pazarlama zekası çözümlerini sunuyoruz. İşletmenizin hedeflerini ve ihtiyaçlarını anlayarak, özelleştirilmiş pazarlama stratejileri oluşturmak için gelişmiş teknolojileri kullanıyoruz.

Boosmart’ın pazarlama zekası çözümleri, markanızın dijital varlığını optimize etmek, hedef kitlenizi daha iyi anlamak ve etkili bir şekilde pazarlama faaliyetlerinizi yönetmek için tasarlanmıştır. Sektördeki en son trendleri takip ediyor ve veri analitiği, yapay zeka ve otomasyon gibi güçlü araçları kullanarak markanızın büyümesini destekliyoruz.

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

SEO 16 Nisan 2024

Keyword GAP Rehberi: SEO’da Rekabeti Domine Edin

Yasemin Şahin

Arama motoru optimizasyonu (SEO) stratejilerinin başarılı olmasında anahtar rol oynayan Keyword GAP, rakiplerinizin organik performansını gözlemlemek ve anahtar kelime fırsatlarını yakalayabilmek için başvurabileceğiniz önemli bir analizdir. SEMrush’ın Keyword GAP aracı da, web sitenizin anahtar kelime performansını rakiplerinizle karşılaştırarak stratejilerinizi geliştirmenize olanak tanır. Ayrıca SWOT analizi yaklaşımıyla güçlü yanlarınıza odaklanmanıza, zayıf noktalarınızı güçlendirmenize ve potansiyel fırsatları keşfetmenize yardımcı olur. Hazırladığım bu rehberde, Keyword GAP’in önemini ve SEO’da SEMrush Keyword GAP aracını en verimli şekilde nasıl kullanabileceğinizi derledim.

Keyword GAP Nedir ve SEO’da Neden Önemlidir?

Keyword GAP analizi, farklı web sitelerinin hangi anahtar kelimelerde performans gösterdiğini, hangi anahtar kelimelerde zayıf veya güçlü olduğunu karşılaştırmalı olarak inceleyen bir SEO çalışmasıdır. Analiz sonucunda elde edilen veriler, hangi anahtar kelimelerin hedeflenmesi gerektiğini, hangi kelimelerde rekabetin düşük olduğunu veya hangi alanlarda içerik üretilmesi gerektiğini belirleme konusunda yol göstericidir.

Keyword GAP analizi, SEO ve dijital pazarlama stratejilerinde rekabet avantajı sağlamak ve pazar payını artırmak için kritik bir rol oynayabilir. SEO’da üst sıralarda yer almak ve organik trafiğini artırmak isteyen tüm siteler için önerilen bir analiz olan Keyword GAP, performansı düşük veya daha az rekabetle üst sıralara çıkabilecek anahtar kelimeleri yakalamak için büyük bir fırsat sunar. Ayrıca mevcut içeriğin güçlendirilmesi ve potansiyel müşterilere ulaşma hedefinde daha etkili olmak için de önemli bir çalışmadır.

SWOT Analizi Nedir ve Neden Önemlidir?

SWOT Analizi, bir organizasyonun veya projenin Güçlü Yanları (Strengths), Zayıf Yanları (Weaknesses), Fırsatları (Opportunities) ve Tehditleri (Threats) açısından bir değerlendirme yapma yöntemidir. Güçlü ve zayıf yanlar içsel faktörleri temsil ederken; fırsatlar ve tehditler de dışsal faktörleri yansıtır. Bu analiz, stratejik planlama süreçlerinde kullanılarak mevcut durumun anlaşılmasına ve gelecekteki hedeflere daha iyi yönlendirme yapılmasına yardımcı olur.

SWOT çalışması farklı amaçlara ulaşmak için yapılabilir. Örneğin yeni bir pazara girmek veya mevcut pazar payını genişletmek isteyen işletmeler, pazar koşullarını daha iyi değerlendirmek adına SWOT analizi yapabilir. Bir diğer yandan mevcut performansı izlemek, fırsat ve riskleri anlamak adına yine SWOT analizinden faydalanılabilir. Önemli kararlar almadan önce hangi kararın daha efektif olacağını netleştirmek için de SWOT sonuçlarını incelemek değerlidir. Böylece, işletme stratejileri daha bilinçli ve uygun bir şekilde belirlenebilir, riskler en aza indirilebilir ve uzun vadeli başarı için daha sağlam temeller oluşturulabilir.

SWOT Analizi ve SEO: Keyword GAP ile Strateji Geliştirme

seo-swot-analizi

SEO çalışmalarınızda odağınızı belirlemeniz için rakipleriniz arasında hangi noktada olduğunuzu, artı ve eksilerinizi bilmek önemlidir. Dolayısıyla SEO stratejileri oluştururken SWOT analizi gerçekleştirmek sizi bir adım öne taşıyabilir. Web sitenizin ve rakiplerinizin mevcut durumunu değerlendirmek, güçlü yanlarınızı vurgulamak, zayıf yanlarınızı güçlendirmek, sektördeki fırsatları değerlendirmek ve olası tehditlere karşı önlemler almak için SWOT analizini SEO operasyonlarınıza dahil edebilirsiniz. 

SEO süreçlerinde yapılan SWOT analizleri; anahtar kelime keşfi, domain otoritesi, backlink araştırması, kullanıcı deneyimi temelli geliştirmeler, organik trafik fırsatları gibi birçok kapsamda ele alınabilir. Örneğin sektörünüzdeki ortalama domain otoritesine göre domain otoritenizin artırılmasına ne kadar ihtiyacınız olduğunu anlayabilir, rakiplerinizin en iyi backlink kaynaklarını ve backlink içeriklerini inceleyebilirsiniz. Tasarımınızı ve site mimarinizi rakiplerinizle karşılaştırarak kullanıcı deneyimini iyileştirebilmek için ipuçları ve yeni fikirler keşfedebilirsiniz. Rakiplerinizin ürün veya hizmet detaylarını analiz ederek sizlerden hangi konularda iyi veya zayıf olduğunu gözlemleyebilirsiniz. Ayrıca en önemli noktalardan biri olan anahtar kelime araştırması için de rakiplerinizi ve pazarınızı inceleyebilirsiniz. 

SEMrush Keyword GAP Nedir?

SEMrush Keyword GAP, web sitenizle birlikte bir veya en fazla 4 rakibinizin anahtar kelime kümelerini karşılaştıran etkili bir araçtır. Sizin ve rakiplerinizin anahtar kelime kümelerinin kesişimlerini ve farkını net bir şekilde ifade eden bu araç sayesinde anahtar kelime stratejinizi geliştirme ve rekabet avantajı elde etme imkanına sahip olabilirsiniz. 

semrush-keyword-gap-tool

SEMrush Keyword GAP ile SEO Rekabetinde Öne Çıkın: Detaylı Rehber

SEMrush’ın Keyword GAP aracı ile aynı anda hem web sitenizin hem de rakiplerinizin anahtar kelime profillerinizi analiz edebilir ve bu analizinizi çeşitli filtreler veya seçenekler yardımıyla özelleştirebilirsiniz.

Aşağıda Keyword GAP analizinizi özelleştirmek için kullanabileceğiniz filtre ve seçenekleri görebilirsiniz:

keyword-gap

Karşılaştırma Yapılacak Alanı Belirleme

Keyword GAP aracında, analiz yapmak istediğiniz web sitesinin tamamını veya belirli bir URL’ini, subdomain veya subfolder’ını seçebilme esnekliğine sahipsiniz. Bu seçenekler, analizinize daha spesifik bir şekilde odaklamanıza olanak tanır.

semrush-keyword-gap-domain

Root Domain (Kök Alan Adı): Bu seçenek, web sitenizin ana domainini (örneğin, example.com) analiz etmek için kullanılır. Ana domain, sitenizin genel performansını değerlendirmek ve anahtar kelimelerdeki rekabeti anlamak için geniş bir perspektif sunar.

Exact URL (Tam URL): Analiz yapmak istediğiniz belirli bir web sayfasının tam URL’sini (örneğin, https://www.example.com/page) seçmek için bu seçeneği kullanabilirsiniz. Bu, özellikle belirli bir içerik parçasının performansını değerlendirmek istediğinizde faydalıdır.

Subdomain (Alt Alan Adı): Alt alan adlarını (örneğin, blog.example.com) seçerek, web sitenizin farklı alt bölgelerindeki anahtar kelimeleri analiz edebilirsiniz. Bu, blog, forum veya diğer alt alanlarda özel stratejiler geliştirmenize yardımcı olabilir.

Subfolder (Alt Klasör): Belirli bir alt klasörü (örneğin, https://www.example.com/blog/) analiz etmek için bu seçeneği kullanabilirsiniz. Alt klasör analizi, sitenizin belirli bir bölümünün anahtar kelime performansını anlamak için faydalıdır.

Bu seçenekler, Keyword GAP aracını kullanarak analizinizi daha detaylandırabilmenize ve web sitenizin belirli bölümlerini ayrı ayrı inceleyerek stratejilerinizi derinleştirmenize olanak tanır. Her web sitesi için karşılaştırma yapılacak alanın ayrı ayrı belirlenmesine imkan sunan Keyword GAP, bir web sitesinin tamamını ve başka bir web sitesinin de sadece subdomainini aynı anda karşılaştırmanızın basit bir yolunu sunar. 

SEMrush Keyword GAP Aracında Anahtar Kelime Sıralama Türlerini Belirleme 

SEMrush Keyword GAP aracı, anahtar kelimelerin sıralama türlerini seçmenize ve rekabet analizinizi spesifikleştirmenize olanak tanır. Bu segmentleri kullanarak, web sitenizin ve rakiplerinizin organik sıralama, ücretli reklam ve ürün listeleme reklamları gibi farklı stratejilerdeki performansını gözlemleyebilir ve rekabet avantajı elde edebilirsiniz. Aynı zamanda anahtar kelime sıralama türleri arasında geçiş yaparak hem SEO hem de PPC durumlarını inceleyebilir ve karşılaştırabilirsiniz. Diğer bir yandan her web sitesi için ayrı ayrı belirleyebileceğiniz anahtar kelime sıralama türleri, bir web sitesi için organic ve diğer web sitesi için paid keywordleri aynı anda karşılaştırmanıza da olanak tanır. 

keyword-gap-keywords

Organic: Organik anahtar kelimeler, ilgili domainlerin arama sonuçlarının organik listelerindeki anahtar kelimelerini gösterir. Yani, web sitelerinin doğal sıralamada hangi anahtar kelimelerde yer aldığını analiz etmenizi sağlar. Dolayısıyla ilk 100 sonuç arasında sıralamaya sahip olunan anahtar kelimeler listelenir. 

Paid: Ücretli anahtar kelimeler, ilgili domainlerin Google Ads aracılığıyla ücretli reklam sıralamalarında yer aldığı anahtar kelimeleri gösterir. Google’ın ilk 8 konumunda sıralandığı ücretli anahtar kelimelerin incelenerek reklam stratejilerinin anlaşılması fırsatını sunar.

PLA: PLA anahtar kelimeler, ilgili domainlerin Google Shopping aracılığıyla ödenen ürün listeleme reklamlarını tetikleyen anahtar kelimelerdir. Bu seçenek, özellikle e-ticaret siteleri için ürün tabanlı reklam stratejilerini anlamak için kullanışlıdır.

SEMrush Keyword GAP’te Nasıl Filtreleme Yapılır? Hangi Filtreler Vardır? 

Raporun üst bölümündeki filtre seçenekleri, analizinizi daha derinlemesine ve özelleştirilmiş bir şekilde gerçekleştirmenize olanak tanır. Bu filtreler, belirli bir konu etrafındaki anahtar kelimeleri karşılaştırmak ve daha net içgörüler elde etmek için kullanılabilir.

Database filtresinden ülkeyi, device filtresinden mobil veya masaüstü olmak üzere cihaz türünü, date filtresinden sorgulama yapmak istediğiniz tarihi veya tarih aralığını ve son olarak currency filtresinden ücretli anahtar kelimeler için para birimini seçebilirsiniz. 

semrush-keyword-gap-filter

Temel filtreleri, karşılaştırma yapılacak alanları ve anahtar kelime sıralama türlerini belirledikten hemen sonra analizi daha da özelleştirmek için birkaç farklı filtreleme seçeneği ile daha spesifik bir rapor elde edebilirsiniz. 

Aşağıda Keyword GAP aracında yer alan diğer filtreleri ve bu filtrelerin ne işe yaradıklarını, bu filtrelerden elde edebileceğiniz içgörüleri görebilirsiniz. 

semrush-keyword-gap-filters

Position Filtresi: Pozisyon filtresinde tüm domainler, sizin domaininiz veya rakiplerinizin domaini için belli aralıktaki organik pozisyona sahip keywordleri analiz edebilirsiniz. Top50, Top,20, Top10 gibi pozisyonlar için analiz edebilmenizin yanı sıra kendi belirleyeceğiniz özel bir aralıktaki pozisyona sahip keywordleri de analiz edebilirsiniz. 

semrush-keyword-gap-position-filters

Volume Filtresi: Aylık ortalama aranma hacmi verisini yansıtan volume filtresi ile belirlediğiniz aranma hacmi aralığına sahip keywordlerin raporda listelenmesini sağlayabilirsiniz. Örnek olarak aylık ortalama aranma hacmi 1K üstünde keywordleri listeyelebilir ve böylece 1K’nın altında aranma hacmine sahip kelimeleri hariç bırakarak genel veriden tasarruf edebilirsiniz.

semrush-keyword-gap-volume-filters

KD (Keyword Difficulty) Filtresi: Anahtar kelime zorluğu filtresi, anahtar kelimelerin pozisyon elde edebilmesinin ne kadar zor olacağını, yani rekabet zorluğunu ifade eden bir metriktir. KD puanı yüksek anahtar kelimeler Google’ın ilk 10’unda organik olarak sıralanması zor kelimeleri ifade eder. Bu noktada kelimelerin zor veya kolay gibi niteliklere sahip olması SEO stratejinizin belirlenmesinde veya belirlediğiniz stratejinize uygun raporlar oluşturmanızda kolaylık sağlayacaktır. KD filtresinin sunduğu 6 seviye, anahtar kelimeleri pozisyon kazanma zorluğuna göre segment eder.

semrush-keyword-gap-keyword-difficulty

Intent Filtresi: Intent filtresi, listelemek istediğiniz keywordlerin kullanıcı niyetini gözlemlemenizi sağlar. Keywordler bilgi, gezinme, ticari veya dönüşüm amaçlı olabilir. Bu filtrelerden bir veya birkaçını seçerek analiz etmek istediğiniz türdeki keywordleri listeleyebilirsiniz.

semrush-keyword-gap-intent-filter

Gelişmiş Filtreler (Include – Exclude): Include (dahil etme) ve exclude (hariç tutma) filtresinden anahtar kelime, hacim, CPC, rekabet ve sonuç sayısı gibi seçenekler ile raporu daha da spesifik hale getirebilirsiniz. Bu filtreler ile analizinizi belli bir alana odaklayabilirsiniz. 

Örnek olarak “fiyatları” sorgusu içeren keywordleri hariç tutabilirsiniz.

semrush-keyword-gap-advanced-filters

Her bir filtre uygulandığında en iyi fırsatlar ve paylaşılan anahtar kelime tablosu otomatik olarak güncellenir. Filtreleri birleştirerek daha spesifik ve işlevsel verilere ulaşabilir ve aksiyon almanız gereken fırsatları hızlıca belirleyebilirsiniz. Bu filtreleme seçenekleri veri analizini daha anlamlı ve yönlendirici hale getirerek daha etkili stratejiler oluşturmanıza yardımcı olur.

SEMrush Keyword GAP – Anahtar Kelime Kategorileri ve Rekabet Stratejileri

Keyword GAP, genel olarak SEO operasyonlarınızda web sitenizin ve rakiplerinizin anahtar kelime stratejilerini etkili bir şekilde değerlendirmenin önemli bir SWOT analizi adımıdır. 

SEMrush Keyword GAP aracında web sitenizin ve rakiplerinizin bilgilerini girdikten ve uygun filtrelemeleri yaptıktan sonra her site için anahtar kelime profillerinin rakipleriyle nasıl kesiştiğini ayrıntılı olarak inceleyebileceğiniz bir tablo ile karşılacaksınız. Bu tablo, “Shared” (ortak), “Missing” (eksik), “Weak” (zayıf) ve “Strong” (güçlü) kategorileri başta olmak üzere önemli kategoriler içerir. 

Shared (Paylaşılan) Keywordler

semrush-keyword-gap-shared-keyword

Sizin ve eklediğiniz rakiplerinizin tamamının bir sıralamaya sahip olduğu anahtar kelimeleri gösteren kategoridir. Bu kategori ile sektörünüzdeki genel rekabeti analiz edebilir, hangi anahtar kelimelerin ön planda olduğunu ve ortak anahtar kelimelerde hangi rakiplerinizin öne çıktığını keşfedebilirsiniz. 

Missing (Eksik) Keywordler

semrush-keyword-gap-missing-keyword

Eklediğiniz rakiplerinizin tamamının bir sıralamaya sahip olduğu ancak sizin bir sıralamaya sahip olmadığınız anahtar kelimeleri gösteren kategoridir. Sıralama almadığınız anahtar kelimeler arasından size uygun olanları belirleyerek bu anahtar kelimelerle tetiklenebilecek sayfalar oluşturabilir, içerik stratejileri geliştirebilir ve rekabette daha güçlü bir hale gelebilirsiniz. 

Örnek olarak bir rakiple karşılaştırılan web sitesi için missing kategorisini inceleyelim:

Aşağıdaki tabloda rakip web sitesinin pozisyon aldığı (yeşil renkli sütun) aranma hacmi en yüksek keywordler listelenmektedir. Bu keywordler arasından kendinizle alakalı olabilecek keywordleri tespit ederek pozisyon kazanımı için çalışmalar planlayabilirsiniz.

semrush-keyword-gap-missing

Weak (Zayıf) Keywordler

semrush-keyword-gap-weak-keyword

Rakiplerinizle kıyaslandığında en zayıf sıralamaya sahip olduğunuz anahtar kelimeleri gösteren kategoridir. Bu kategorideki anahtar kelimeler üzerinde çalışmak, içeriğinizi güçlendirmeniz ve sıralamanızı artırmanız için bir strateji oluşturmanıza yardımcı olabilir.

Strong (Güçlü) Keywordler

semrush-keyword-gap-strong-keyword

Rakiplerinizle kıyaslandığında en iyi sıralamaya sahip olduğunuz anahtar kelimeleri gösteren kategoridir. Bu kategori, güçlü yönlerinizi ve rekabet avantajlarınızı belirlemenize yardımcı olabilir. Bu kelimeler üzerinde odaklanarak ve bunları vurgulayarak organik trafikte liderliği ele geçirmeniz mümkün olabilir.

Untapped (Kullanılmayan) Keywordler

semrush-keyword-gap-untapped-keyword

Rakiplerinizden birinin sıralama aldığı ancak sizin sıralamanızın bulunmadığı anahtar kelimeleri gösteren kategoridir. Bu kategori, hedef kitlenizle etkileşim kurmak ve organik trafiği artırmak için henüz çok gelişmemiş potansiyel fırsatları belirlemenize yardımcı olabilir. 

Unique (Benzersiz) Keywordler

semrush-keyword-gap-unique-keyword

Sizin bir sıralamaya sahip olduğunuz ancak rakiplerinizin hiçbirinin herhangi bir sıralamaya sahip olamadığı anahtar kelimeleri gösteren kategoridir. Bu kategori, özellikle sizin için benzersiz olan ve rekabet avantajı sağlayabilecek anahtar kelimeleri belirlemenize yardımcı olur. Bu kelimelerdeki varlığınızı daha da güçlendirerek kendi nişinizde dominasyonu ele geçirebilirsiniz.

All (Tüm) Keywordler

semrush-keyword-gap-all-keyword

Sizin ve rakiplerinizin sıralama aldığı tüm anahtar kelimeleri gösteren kategoridir. Bu kategori, genel bir pazar analizi yapmak ve sektördeki anahtar kelimelerin tamamını görmek için kullanabileceğiniz filtrelenmemiş ham veriyi ifade eder. 

Tüm bu analiz sonuçlarına dayanarak içerik üretme, anahtar kelime optimizasyonu, backlink oluşturma ve buna benzer unsurları içeren yeni stratejiler geliştirerek daha güçlü ve sağlam temellere dayanan bir SEO yol haritası kurgulayabilirsiniz. Düzenli olarak analiz yapmak, değişen rekabet ortamına adapte olmanızı, sektörünüzü güncel olarak takip etmenizi, rakiplerinizi yakından gözlemlemenizi sağlar ve SEO stratejinizin verimini artırır.

SEMrush Keyword GAP Aracından Anahtar Kelimeler Nasıl Dışa Aktarılır?  

SEMrush Keyword GAP aracındaki herhangi bir tabloyu doğrudan inceleyebilmenin yanı sıra sizin için önemli keywordleri dışarı aktarabilmeniz de mümkündür. Keyword GAP analiz sonuçlarını Excel dosyasına, CSV dosyasına veya PDF’ye aktarabilirsiniz. Dışa aktarım için sizin için önemli anahtar kelimeleri tablodan seçerek aktarabileceğiniz gibi listedeki tüm anahtar kelimeleri dışa aktarmayı veya ilk 100, 500, 1.000, 3.000, 10.000, 30.000 veya 50.000 (raporun boyutuna bağlı olarak) anahtar kelimeyi de dışa aktarmayı seçebilirsiniz.

semrush-keyword-gap-export

Dijital Pazarlama Ajansı olarak, markanızın başarılı bir büyüme yolculuğuna çıkması için Boosmart’ın eşsiz pazarlama zekası çözümlerini sunuyoruz. İşletmenizin hedeflerini ve ihtiyaçlarını anlayarak, özelleştirilmiş pazarlama stratejileri oluşturmak için gelişmiş teknolojileri kullanıyoruz.

Boosmart’ın pazarlama zekası çözümleri, markanızın dijital varlığını optimize etmek, hedef kitlenizi daha iyi anlamak ve etkili bir şekilde pazarlama faaliyetlerinizi yönetmek için tasarlanmıştır. Sektördeki en son trendleri takip ediyor ve veri analitiği, yapay zeka ve otomasyon gibi güçlü araçları kullanarak markanızın büyümesini destekliyoruz.

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

Algoritmalar 10 Mart 2024

Google Mart 2024 Algoritma Güncellemesi & Spam Güncellemesi Notları

Anıl Zengin

Google, 5 Mart 2024 tarihinde yaptığı duyuruyla “Mart 2024 Çekirdek Güncellemesi”nin ve aynı zamanda bir Spam Güncellemesi’nin de kullanıma sunulmaya başlandığını açıkladı. Güncelleme öncesinde son bir haftadaki arama sonuçlarındaki dalgalanmalar, kapsamlı bir çekirdek güncellemesi beklentisini artırmıştı. 2024 yılının ilk geniş çaplı algoritma güncellemesi ve spam güncellemesi olma özelliğini taşıyan bu güncellemeler ile arama sonuçlarını oluşturmak ve sıralamayı belirlemek için kullanılan sistemlerde önemli değişikliklerin yapıldığı belirtildi.

Ayrıca Google, son zamanlarda popülerlik kazanan bazı spam & black hat yöntemlerinin önüne geçmek için arama sonuçları kalitesini iyileştirmek için kullandığı spam politikasına da üç yeni politikanın eklendiğini duyurdu. İşte 5 Mart 2024 tarihli algoritma ve spam güncellemesinin öne çıkan detayları…

Mart 2024 Algoritma Güncellemesi & Spam Güncellemesi Notları

Google’ın Mart 2024 Çekirdek Güncellemesi hakkındaki duyurusuna göre, bu güncelleme önceki algoritma güncellemelerine göre daha karmaşık ve birden fazla çekirdek sistemini etkileyen önemli değişiklikler içeriyor. Google, güncelleme ile “yararlı içeriğin” belirlenmesinde köklü değişikliklere gittiğini ve kullanıcılara daha yararlı ve doğru sonuçları sağlamak amacıyla temel sıralama sistemlerini geliştirmek için çeşitli yenilikçi sinyaller ve yaklaşımlar kullandığını belirtiyor. İçerik oluşturucuların bu güncelleme için özel bir şey yapmalarına gerek olmadığını belirten Google, “İnsanlar için tatmin edici içerikler ürettikleri sürece, sıralamada yer almayanlar için ‘Yararlı, güvenilir, öncelikli içerik oluşturma’ yardım sayfasını incelemenin faydalı olacağını” öneriyor.

Bir yıl içerisinde birkaç defa uygulanan geniş çaplı algoritma güncellemeleri, ortalama olarak iki hafta içinde tamamlanırken, bu güncellemenin diğerlerine göre daha karmaşık olması ve birçok temel algoritma sistemini önemli düzeyde etkilemesi nedeniyle kullanıma sunulma sürecinin bir ay kadar sürebileceği ifade ediliyor.

google-mart-2024-algoritma-guncellemesi-spam-guncellemesi

Google’ın Yeni Spam Politikaları

Google’ın arama sonuçlarının kalitesini iyileştirmek ve arama sonuçlarında spam yöntemleriyle pozisyon elde etmek isteyen sayfaları oyun dışı bırakmak için kullandığı spam politikalarında da önemli değişiklikler ve yenilikler duyuruldu. Yapılan güncelleme duyurusunda üç yeni spam politikası açıklayan Google, spam politikalarını ihlal eden sitelerin arama sonuçlarında pozisyonlarını kaybederek alt sıralarda konumlanabileceğini veya tamamen cezalandırılabileceğini belirtiyor. Google’ın “Süresi dolmuş alan adının kötüye kullanılması“,”Ölçeklendirilmiş içeriğin kötüye kullanılması” ve “Site itibarının kötüye kullanılması” şeklinde adlandırdığı üç yeni spam politikasıyla son zamanlarda popülerliği artan birçok Black Hat SEO yönteminin önüne geçme hedeflenecek. Yeni spam politikalarının sonucunda manuel spam cezasından etkilenen site sahiplerinin Search Console’daki Manuel İşlemler (Manual Actions) bölümünden bir bildirim alacağı da belirtiliyor.

expired-domain-abuse

Süresi Dolmuş Alan Adının Kötüye Kullanılması (Expired Domain Abuse)

Bildiğiniz üzere bir zamanlar aktif olarak yayın yapan ve iyi bir otoriteye sahip olan bir domainin süresinin dolması sonrasında yeniden satın alınarak bambaşka bir kategoride içerikler yayınlanarak kullanılması, alan adının gücünden faydalanıp kolayca pozisyon elde etmek için tercih edilen bir yöntem. Şimdiye kadar süresi dolmuş otoriter bir domaini satın alarak düşük kalitede içerik ve zayıf bir sayfa ile bile pozisyon almak çoğunlukla mümkündü ve Google da bu durumu sonlandırmak için yeni spam politikalarından birini bu konuya odaklamış durumda.

Google, yaptığı açıklamada süresi dolmuş bir alan adını satın alarak insanlara faydalı şekilde hizmet etmek ve arama sonuçlarını manipüle etmemek üzere kullanmakta herhangi bir sakınca olmadığını belirtiyor. Beraberinde de bu yöntemin arama algoritmasını manipüle etmek ve ilgili alan adının önceki sahipliğinden elde ettiği otoriteden ve itibarından faydalanarak arama sonuçlarında kolayca pozisyon almak için kötü olarak kullanıldığını belirtiyor.

Yayınlanan yeni spam politikalarından olan süresi dolmuş alan adının kötüye kullanılması ile bu yöntemin artık şimdiye kadar olduğu gibi işe yaramayacağını ve algoritmalarının bu durumu tespit ederek arama sonuçlarında pozisyon vermeyeceğine yönelik çalışacağı duyuruldu.

scaled-content-abuse

Ölçeklendirilmiş İçeriğin Kötüye Kullanılması (Scaled Content Abuse)

Google’ın yeni spam politikalarından bir diğeri olan ölçeklendirilmiş içeriğin kötüye kullanılması, şimdiye kadar yayın yaptığı ana kategorisinin dışında içerikler üreterek ve kendi otoritesinden faydalanarak arama sonuçlarında pozisyon almak isteyen siteleri kapsıyor. Google’ın bu politika ile hedeflediği asıl şey, yapay zeka araçları ve otomasyonlar kullanarak farklı birçok konuda çok yüksek sayıda içeriği kısa sürede üreterek yayına alan siteler. Yapay zeka ile içerik üretmenin mümkün olduğu günden beri arama sonuçlarında sadece AI ile içerik üreterek pozisyon alan ve trafik kazanan sitelerin günden güne arttığını görmüştük. Özellikle de bir itibara ve otoriteye sahip domainler, yapay zeka ile içerik üretme kolaylığından yararlanarak kendileriyle alakası olmayan farklı konularda da birçok içerik üreterek trafik çalabiliyordu. Yeni spam güncellemesinin hedefi, bu tarz davranışlarda bulunan sayfaları cezalandırmak ve arama sonuçlarında göstermemek.

İçerik oluşturmada yapay zeka kullanımını kullanıcılara yardımcı olmak ve kullanıcıların sorgularına en iyi yanıtı vermek yaklaşımıyla kabul eden Google, sadece arama sonuçlarında pozisyon kazanmak için yapay zeka ile içerik oluşturulmasına oldukça karşı ve bu politikayla birlikte bu şekilde oluşturulan sayfaların tespit edilmesi ve cezalandırılması üzerine odaklanıyor. Google, daha önceden AI (yapay zeka) kullanılarak oluşturulmuş içeriğin insanlara faydalı olmak ve arama sonuçlarını manipüle etmemek üzere hazırlanması şartıyla kabul edildiğini ve yapay zeka desteği ile üretilen içeriklerin arama sonuçlarında pozisyon almasında bir engel olmadığını belirtmişti. Aynı hatırlatmayı bu duyuruda da yapan Google, bir içeriğin her nasıl üretilmiş olursa olsun kullanıcılara çok az veya hiç değer sağlamadığı sürece veya büyük miktarda orijinal olmayan bir içerik olduğu sürece cezalandırılacağını belirtiyor.

Google, içeriği üretmek için otomasyon, yapay zeka veya bu gibi otomatizasyonlar kullanılmasındaki birincil amacın arama sonuçlarındaki sıralamayı manipüle etmek olduğu sürece, bunun bir spam olduğu yaklaşımını devam ettiriyor. Güncellenen politikanın önceki spam politikasıyla aynı ruhu taşıdığını ve aynı ilkeye dayandığını belirten Google, düşük kaliteli içeriğin yalnızca otomasyon yoluyla oluşturulup oluşturulmadığının her zaman net olmadığı daha sofistike ölçekli içerik oluşturma yöntemlerini hesaba katmak için genişletildiğini de ayrıca açıklıyor.

site-reputation-abuse

Site İtibarının Kötüye Kullanılması (Site Reputation Abuse)

Bildiğiniz üzere yüksek otorite ve itibara sahip siteler, arama sonuçlarında iyi pozisyonlara hızlı ve daha kolay şekilde erişebildikleri için kendi konularıyla alakası olmayacak şekilde içerikler üreterek hem trafik hem de para kazanabiliyorlar. Özellikle reklam yayınlama, affiliate marketing ve ücret karşılığı sponsorlu içerik yayınlama gibi farklı gelir kalemlerinden faydalanabilen bu siteleri hedefleyen Google, bir domainin itibarı ve otoritesi her ne kadar yüksek olursa olsun kendi alanının dışında düzenli şekilde içerik yayınlaması durumunda bunu bir spam olarak göreceğini belirtiyor.

Yüksek itibara ve otoriteye sahip bir site, kendi konusunun dışında bir içerik oluşturup bu içeriğe de affiliate ürün bağlantıları ekleyebilir. Bu içeriğin yayınlanmasıyla da domain gücüyle hızlı bir şekilde arama sonuçlarında üst sıralarda pozisyon alarak kazandığı trafikten bir affiliate geliri yaratabilir. Başka bir alternatif olarak, kendi alanının dışında bir içerik yayınlayarak üst sıralarda pozisyon alabilir ve kazandığı trafikle sitesindeki reklamların gösteriminden gelir elde edebilir. Yine farklı bir alternatif olarak, herhangi bir X markayı tanıtıcı ve övücü bir sponsorlu içerik yayınlayıp bunun üzerinden bir gelir elde edebilir. Google, sitelerin konularının dışında içerikler yayınlayarak farklı gelir yöntemleriyle gelir elde etme amaçlarını bir spam olarak değerlendireceğini ve bu davranıştaki sitelerin cezalandırılacağını belirtiyor.

Özet

Genel olarak baktığımızda yayınlanan algoritma güncellemesinin şimdiye kadar olanlardan daha karmaşık & kapsamlı olduğu ve temel sıralama faktörlerinde önemli değişiklikler yapıldığı belirtiliyor. Beraberinde duyurulan spam güncellemesiyle de son zamanlarda birçok site sahibinin yakındığı konulara ilişkin Google’ın yeni bir savaş açtığı da bariz şekilde ortada. Yeni politikaların ilkinde, Google’ın uzun süredir kullanılan bir yöntem/taktik olarak bildiğimiz süresi dolmuş bir alan adını satın alarak herhangi bir kategoride & sektörde içerikler yayınlayarak hızlı şekilde pozisyon kazanma konusuna artık izin vermeyeceği ve algoritmanın bu yönde güncellendiği. İkinci olarak özellikle yapay zeka otomasyonları ile içerik üreterek çok kısa sürede yüksek miktarda içeriği yayınlayarak trafik kazanmak çoğunlukla mümkündü ve yeni spam politikasıyla Google bunun önüne geçmeye çalışacak. Son olarak da alan adının gücünden yararlanarak kendisiyle alakası olmayan bir konuda içerik üreterek trafik ve gelir elde etmek isteyen sitelerin de cezalandırılacağı da Google’ın duyurusunda belirtiliyor.

Açıkçası Google’ın yeni spam politikaları birçok önemli problemi çözmeye yönelik ama bunların pratikte ne kadar sağlıklı ve doğru işleneceği konusu bir soru işareti. Özellikle son algoritma güncellemelerinin ardından Reddit, LinkedIn, Medium ve Quora gibi çok yüksek otoriteli ve itibarlı platformların arama sonuçlarında her konuda ilk sırada pozisyon alması ve trafik çalması, site sahiplerinin şikayetçi olduğu konuların başında geliyordu. Ayrıca yapay zekayla otomatik ve katma değeri olmayacak şekilde içerikler üretip yayınlayan sitelerin de iyi pozisyonlarda yer alarak kaliteli sayfaları ezmesi de ciddi problemlerden bir diğeriydi. Şimdiye kadar Twitter (X), Reddit ve SEO topluluklarında güncellemenin bir hayli dikkat çektiğini ve site sahiplerinin güncellemede bahsedilen konularla ilgili ciddi beklentilerinin olduğunu görebiliyoruz. Güncellemenin kullanıma sunulmasının tamamlanması sonrasında Google’ın bu konularda ne kadar başarılı olduğunu canlı örneklerle görmemiz mümkün olacak.

 

Ek Kaynaklar

https://developers.google.com/search/blog/2024/03/core-update-spam-policies

Dijital Pazarlama Ajansı olarak, markanızın başarılı bir büyüme yolculuğuna çıkması için Boosmart’ın eşsiz pazarlama zekası çözümlerini sunuyoruz. İşletmenizin hedeflerini ve ihtiyaçlarını anlayarak, özelleştirilmiş pazarlama stratejileri oluşturmak için gelişmiş teknolojileri kullanıyoruz.
Boosmart’ın pazarlama zekası çözümleri, markanızın dijital varlığını optimize etmek, hedef kitlenizi daha iyi anlamak ve etkili bir şekilde pazarlama faaliyetlerinizi yönetmek için tasarlanmıştır. Sektördeki en son trendleri takip ediyor ve veri analitiği, yapay zeka ve otomasyon gibi güçlü araçları kullanarak markanızın büyümesini destekliyoruz.

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

SEO 18 Aralık 2023

HTTP Durum Kodları Nedir, SEO İçin Neden Önemlidir?

Yasemin Şahin

İstemci ve sunucu arasındaki iletişimi sağlayan HTTP durum kodları, bir web sayfasının gönderilen bir isteğe verdiği yanıtı ifade eder. SEO çalışmaları kapsamında da taranabilirlik ve indekslenebilirlik sorunlarının çözülmesi aşamasında da sık sık karşılaştığımız HTTP durum kodları, SEO performansına ciddi etki edebilecek önemli bir etkendir. Bu içerikte, HTTP durum kodlarının anlamlarını, neden önemli olduklarını ve karşılaşılabilecek hataların nasıl ele alınabileceğini bulabilirsiniz.

HTTP Durum Kodları (HTTP Status Codes) Nedir?

HTTP Durum Kodları (HTTP Status Codes); kullanıcılara, arama motoru botlarına ve diğer tüm istemcilere bir URL’in HTTP durumuyla ilgili bilgi veren ve sunucunun verdiği yanıtı anlamlandırabilmelerini sağlayan kodlardır. Üç haneli bu kodlar bir isteğin başarıyla tamamlandığını, bir sayfanın bulunamadığını, bir yönlendirmenin gerçekleştiğini veya başka bir hata durumunun meydana geldiğini belirtebilir.

HTTP Durum Kodu Sınıfları

HTTP durum kodları, web sitelerinin ve uygulamalarının düzgün çalışması için önemli bir araçtır. Bu kodları anlamak, web sitenizi veya uygulamanızı daha iyi hale getirmenize yardımcı olur. HTTP durum kodları beş ana sınıfa ayrılır:

HTTP 1xx: Bilgi Amaçlı Durumlar

1xx durum kodları, isteğin sunucu tarafından alındığını ve işleme alındığını gösterir. Sunucu tarafından istemciye ek bilgi sağlamak için kullanılır ve iletişimin devam ettiğini belirtir.

HTTP 2xx: Başarılı Durumlar

2xx durum kodları, isteğin sunucu tarafından başarıyla alındığını, anlaşıldığını ve işlendiğini gösterir. İstemciye isteğin başarılı olduğunu ve istenen yanıtın sorunsuz teslim edildiğini bildirir.

HTTP 3xx: Yönlendirmeler

3xx durum kodları, isteğin başka bir hedefe yönlendirildiğini gösterir. İstemciye isteğin başarıyla alındığını ve işlendiğini, ancak ek yönlendirmelere ihtiyaç duyulduğunu belirtir.

HTTP 4xx: İstemci Hatası Durumları

4xx durum kodları, istekte bir hata olduğunu ve isteğin kaynakta bulunmadığını gösterir. İstemcinin hatayı düzeltmesi gerektiğini bildirir.

HTTP 5xx: Sunucu Hatası Durumları

5xx durum kodları, sunucu kaynaklı bir hata ile karşılaşıldığını ve sunucunun isteği işleyemediğini bildirir.

http-durum-kodlari

En Sık Karşılaşılan Durum Kodları

En yaygın HTTP durum kodları şunlardır:

  • HTTP 200 Durum Kodu (Başarılı)
  • HTTP 301 Durum Kodu (Kalıcı Yönlendirme)
  • HTTP 302 Durum Kodu (Geçici Yönlendirme)
  • HTTP 401 Durum Kodu (Yetkisiz Erişim)
  • HTTP 403 Durum Kodu (Erişim İzni Sorunu)
  • HTTP 404 Durum Kodu (Bulunamadı)
  • HTTP 410 Durum Kodu (Kalıcı Olarak Bulunmuyor)
  • HTTP 500 Durum Kodu (Sunucu Hatası)
  • HTTP 503 Durum Kodu (Sunucu Kullanılamıyor)

 

HTTP 200 Durum Kodu (Başarılı)

Açıklama: İsteğin başarıyla işlendiğini ve sunucunun isteğe sorunsuz yanıt verdiğini gösterir.

Örnek: Bir web sitesini ziyaret ettiğinizde ve web sitesi düzgün bir şekilde yüklendiğinde, tarayıcı 200 durum kodunu alır.

HTTP 301 Durum Kodu (Kalıcı Yönlendirme)

Açıklama: İsteğin kalıcı olarak başka bir hedefe yönlendirildiğini gösterir. İstemcinin gelecekte bu yeni URL’yi kullanması gerektiğini belirtir.

Örnek: Bir web sitesi yeni bir URL’ye taşındığında, eski URL’yi ziyaret ettiğinizde tarayıcı 301 durum kodunu alır.

HTTP 302 Durum Kodu (Geçici Yönlendirme)

Açıklama: İsteğin geçici olarak başka bir hedefe yönlendirildiğini gösterir. İstemcinin geçici olarak bu yeni URL’yi kullanması gerektiğini belirtir.

Örnek: Bir URL, geçici olarak kendi URL’inde çalışamayacak durumdaysa ve geçici olarak farklı bir URL’de çalışıyorsa tarayıcı 302 durum kodunu alır ve kullanıcıyı web sitesindeki farklı bir sayfaya yönlendirir.

HTTP 401 Durum Kodu (Yetkisiz Erişim)

Açıklama: İsteğin, kimlik doğrulama gerektiren bir kaynağa yetkisiz erişim girişimini temsil eder ve yetkilendirilmesi veya geçerli kimlik bilgileri sunulması gerektiğini gösterir.

Örnek: Bir web sitesine giriş yapmaya çalışırken sizden istenen giriş bilgilerini yanlış girdiğinizde veya girmediğinizde, tarayıcı 401 durum kodunu alır.

HTTP 403 Durum Kodu (Erişim İzni Sorunu)

Açıklama: İsteğin reddedildiğini gösterir. Bu genellikle, istemcinin gerekli erişim izinlerine sahip olmadığı veya sunucu tarafından erişimin yasaklandığı durumlarda olur.

Örnek: Bir web sitesine giriş yapmaya çalıştığınızda ve kullanıcı hesabınız devre dışı bırakılmışsa, tarayıcı 403 durum kodunu alır. Bunun yanı sıra site içerisinde özel bir dosyaya erişim izni verilmediğinde de tarayıcı 403 durum kodunu alır.

HTTP 404 Durum Kodu (Bulunamadı)

Açıklama: Bu durum kodu, istemcinin (tarayıcı, bot veya kullanıcı gibi) talep ettiği kaynağın sunucuda bulunamadığını belirtir. Yani, istemci tarafından talep edilen sayfa, dosya veya kaynak sunucu tarafında bulunamamıştır. Bu durum genellikle URL’lerin yanlış yazılması, kaynağın yönlendirme yapılmadan taşınması veya silinmesi sonucu ortaya çıkar.

Örnek: Herhangi bir sayfaya erişmek istediğinizde sayfa bulunamıyorsa, tarayıcı 404 durum kodunu alır.

Not: Web sitesi yöneticileri genellikle 404 hataları için özelleştirilmiş 404 sayfaları kullanarak kullanıcı deneyimini iyileştirmeye çalışırlar. Bu sayfalar kullanıcılara alternatif sayfalar veya site içi arama seçenekleri sunarak, kullanıcıları ulaştıkları boş bir 404 sayfası yerine daha iyi bir deneyime yönlendirmeyi amaçlar.

HTTP 410 Durum Kodu (Kalıcı Olarak Bulunmuyor)

Açıklama: İstenilen sayfanın kalıcı olarak silindiğini gösterir. Bu durum, 404 durum kodundan daha spesifik olarak, kaynağın artık asla kaynakta mevcut olmayacağını ifade eder. Yani, sayfa kalıcı olarak silinmiştir veya taşınmıştır ve geri getirilmesi beklenmez.

Örnek: Sayfaların kalıcı olarak silindiği senaryolarda 410 durum kodu kullanılır.

Not: Arama motorları, 410 durum kodunu gördüklerinde, bu sayfanın artık mevcut olmadığını ve kalıcı olarak kaldırıldığını anlarlar. Bu sayede, arama motorları sayfayı indeksten çıkarır ve gereksiz bir sayfanın taranmaya devam etmesi ile ilgili zaman kaybını önler. Kalıcı olarak kaldırılan sayfaların 410 yanıt kodu döndürülmesini sağlayarak indekslerden gereksiz ve eski içeriklerinizi temizleyebilir ve tarama bütçenizi doğru yönetebilirsiniz.

HTTP 500 Durum Kodu (Sunucu Hatası)

Açıklama: Bu durum kodu, sunucuda beklenmedik bir hata ile karşılaşıldığını ve istemcinin isteği başarıyla işleyemediğini belirtir. Genel olarak, sunucu tarafında ortaya çıkan bir hata veya sorun nedeniyle isteğin işlenemediğini gösterir. Bu tür hatalar genellikle sunucunun yapılandırması, uygulama kodu veya sunucu donanımı ile ilgili olabilir.

Örnek: Bir web sitesine erişmeye çalıştığınızda ve sunucu herhangi bir hata ile karşılaştığında, tarayıcı 500 durum kodunu alır.

HTTP 503 Durum Kodu (Sunucu Kullanılamıyor)

Açıklama: Sunucunun şu anda kullanılamadığını, geçici olarak hizmet dışı olduğunu veya aşırı yüklü olduğunu belirtir. Sunucu istekleri işlemeye veya cevaplamaya yetecek kapasitede değilse veya bakım nedeniyle geçici olarak kullanılamıyorsa, 503 durum kodu döner.

Örnek: Bir web sitesine erişmeye çalıştığınızda ve sunucu bakım için kapalıysa veya aşırı yüklü olduğu için istekleri işleme kapasitesine sahip değilse tarayıcı 503 durum kodunu alır.

http-status-code

HTTP Durum Kodları Nasıl Kontrol Edilir?

HTTP durum kodlarını kontrol etmek için çeşitli araçlar ve yöntemler mevcuttur:

Google Chrome Devtools

Google Chrome’un Geliştirici Araçları’nı (DevTools) kullanarak bir web sayfasının HTTP durum kodlarını kontrol etmek oldukça kolaydır. Aşağıda bu kontrollerin adım adım nasıl yapılacağını bulabilirsiniz:

  1. HTTP durum kodlarını kontrol etmek istediğiniz web sayfasını açın.
  2. Geliştirici Araçları’nı Açın:
    -Sağ üst köşede bulunan üç nokta (dikey) simgesine tıklayarak açılır menüyü açın.
    -Menüden “Diğer araçlar (More Tools)” seçeneğini bulun ve altında “Geliştirici araçları (Developer Tools)”na tıklayın.
    -Klavyeden Ctrl + Shift + I (Windows/Linux) veya Cmd + Option + I (Mac) kısayol tuşlarıyla da Geliştirici Araçları’nı açabilirsiniz.
  3. Geliştirici Araçları açıldığında, üst menüde bulunan “Ağ (Network)” sekmesine tıklayın. Bu sekme, tarayıcının ağ etkinliğini izlemek ve analiz etmek için kullanılır.
  4. Ağ (Network) sekmesine geçtikten sonra F5 tuşu veya tarayıcıda bulunan yenileme simgesini kullanarak web sayfasını yenileyin.
  5. HTTP Durum Kodlarını Görüntüleyin:
    -Sayfa yenilendikten sonra Geliştirici Araçları‘nın altında ağ isteklerinin listelendiği bir tablo görünecektir.
    -Bu tabloda her isteğin yanında bir HTTP durum kodu bulunur. Durum kodları, “Durum (Status)” sütununda listelenir.

HTTP durum kodları, burada listelenen isteklerin ve yanıtların her biri için görüntülenebilir. Bu sayede sayfanın her bir kaynağının (örneğin, HTML, CSS, JavaScript dosyaları) yanıt durumlarını inceleyebilirsiniz.

Tarayıcı Eklentileri

İnternet tarayıcıları, sahip oldukları eklentiler ile birçok amaca yönelik çözüm üreten eklentileri kullanmamıza olanak sağlıyor. Bu eklentiler arasında HTTP durum kodlarını kontrol edebileceğimiz birçok eklenti bulunuyor. En çok kullanılan eklentilerden olan Redirect Path eklentisi, bir URL’e istek attığınızda URL’in çevirdiği yanıtı görmenizi sağlamaktadır.

Redirect Path

Google Chrome eklentilerini kullanarak bir URL’in HTTP durum kodlarını kontrol etmek oldukça kolaydır. Aşağıda bu kontrollerin adım adım nasıl yapılacağını bulabilirsiniz:

  1. İlk olarak “Redirect Path” eklentisini Chrome’a Ekle butonundan ekleyin.
  2. Yönlendirmeleri ve HTTP durum kodlarını kontrol etmek istediğiniz URL’yi açın.
  3. Açtığınız URL 200 yanıt kodu döndürerek sorunsuz bir şekilde çalışıyorsa herhangi bir uyarı ile karşılaşmayacaksınız. Ancak herhangi bir yönlendirme veya hata durumunda eklentide durum kodunu göreceksiniz. Eklentiye tıkladığınızda neden durum kodu uyarısı aldığınıza dair detayları bulabilirsiniz.

Google Search Console

Search Console raporları için sitenizin Search Console’a eklenmiş olması gerekmektedir. Siteniz eklenmemişse sitenizi Search Console’a kaydetme ile ilgili detaylı içeriğimizi inceleyebilirsiniz.

  1. Dizin Oluşturma: Siteniz Search Console’da mevcutsa “Dizin Oluşturma” Sekmesine Gidin
  2. Sayfa Sayısı: Sol taraftaki menüden “Sayfa Sayısı” sekmesine gidin.
  3. Raporu İnceleme Karşılaştığınız Sayfayı Dizine Ekleme Raporu, Google’ın mülkünüzde bulunan tüm URL’lerin Google dizinindeki durumunu gösteren bir inceleme raporudur. Bu rapor ile indekslenen sayfalarınızı, indekslenmeyen sayfalarınızı ve sayfalarınızın neden indekslenmediği gibi detaylarına erişebilirsiniz.

İndekslenmeyen sayfalarınızın HTTP durum kodlarını inceleyebilir, bu kodların bilinçli mi yoksa bir hatadan kaynaklı mı olduğunu tespit edebilirsiniz.

HTTP kodlarını kontrol etmeniz için incelemeniz gereken maddeler aşağıdaki gibidir

  • Page with redirect
  • Soft 404
  • Not found (404)
  • Blocked due to unauthorized request (401)
  • Blocked due to access forbidden (403)
  • Server error (5xx)

Screaming Frog SEO Spider

Aşağıda Screaming Frog ile kontrollerin adım adım nasıl yapılacağını bulabilirsiniz:

  1. Web sitesi için bir crawl başlatın. (Crawl başlatmak için daha detaylı bilgi için: Screaming Frog Nedir ve Nasıl Kullanılır?)
  2. Tarama tamamlandığında, sağ taraftaki menüden “Response Codes” (Yanıt Kodları) sekmesini seçin.
  3. Bu sekmede, her bir URL’nin yanında bulunan “Status Code” (Durum Kodu) sütununda HTTP durum kodlarını görebilirsiniz.

Durum kodlarını inceleyerek, web sitenizin her bir sayfasının durumunu kontrol edebilir ve varsa olası sorunları belirleyebilirsiniz. Herhangi bir URL’inizde yönlendirme varsa, yönlendirmeye dair detaylar yan sütunlardaki Redirect URL ve Redirect Type alanlarında listelenir. Yine yan panelde bulunan bölümden, URL’lerinizle ilgili yanıt kodu filtrelerini (Blocked by Robots.txt, Blocked Resource, No Response, Success (2xx), Redirection (3xx), Redirection (JavaScript), Redirection (Meta Refresh), Client Error (4xx), Server Error (5xx)) uygulayarak örneğin sadece 4xx Client Error yanıtına sahip URL’lerinizi filtreleyebilirsiniz. Tüm bu sonuçları export alarak daha detaylı inceleyebilirsiniz.

HTTP Durum Kodları ve Crawl Budget

Crawl budget, arama motorlarının web sitenizi taramak için ayrılan kaynaklarının (zaman, bant genişliği, indeksleme kapasitesi) toplamını ifade eden ve arama motorlarının web sitenizi ne kadar sık ​​ve ne kadar derinlemesine tarayabileceğini belirleyen bir terimdir.

Arama motorları, sitenizdeki sayfaları taramak için günlük olarak belirli bir zaman ve kaynak ayırır. Tarama bütçesi optimizasyonu ile arama motorlarının bir sitedeki en alakalı ve kaliteli içeriği bulmak için kaynaklarını verimli bir şekilde kullanması hedeflenir.

HTTP durum kodları, arama motorlarına sayfalarınızın nasıl yanıt verdiği bilgisini verir ve arama motoru botları da bu bilgiden yola çıkarak sayfalarınızı taramaya devam eder.

Her hata kodu (404 veya 500 gibi) bir arama motorunun zamanını ve kaynaklarını bir hata mesajını işlemekle geçirmesine neden olduğundan tarama bütçesi olumsuz etkilenir. Bu yüzden de arama motoru botları sitedeki önemli sayfalardan uzaklaşır ve bu sayfaları doğru bir şekilde dizine eklemesi zorlaşır.

Aynı şekilde, bir sayfa sürekli olarak 301 (Kalıcı Yönlendirme) veya 302 (Geçici Yönlendirme) durum kodları veriyorsa, arama motorların bu sayfaları işlemek için harcadığı zaman ve kaynaklar yine tarama bütçesinden düşülür.

Bu nedenle, bir sitenin tarama bütçesini en üst düzeye çıkarmak için 4xx ve 5xx gibi hata kodlarını ve site içi & site dışı yönlendirmeleri en aza indirmek önemlidir. Bu sayede, arama motoru botlarının sitenin önemli sayfalarına odaklanması hedeflenir.

http-durum-kodlari-ve-crawl-budget

HTTP Durum Kodları SEO İçin Neden Önemlidir?

Günümüz dijital dünyasında, bir web sitesinin başarısı, sadece estetik tasarıma ve zengin içeriğe dayanmaz. Arama motorları tarafından verimli şekilde taranmak ve indekslenmek, kullanıcı deneyimini ve SEO performansını iyileştirmek için HTTP durum kodlarına dikkat etmek kritik bir adımdır.

HTTP durum kodları; SEO kapsamında sitelerin performansının izlenmesinde, URL değişikliklerinin uygulanmasında, sayfa taşınması gibi çeşitli aksiyonların sürdürülmesinde süreci kolaylaştırmak ve anlamlandırmak için önemli rol oynar. URL’lerin doğru HTTP durum kodlarına sahip olması; kullanıcı deneyimini geliştirmeye ve SEO performansının iyileştirmeye yardımcı olur.

Arama motorları, web sitelerini sıralarken birçok faktörü göz önüne alır. Hızlı yüklenen, sorunsuz çalışan ve güvenilir olan sayfalar, daha yüksek sıralamalara sahip olabilir. Bu etkenler göz önüne alındığında özellikle SEO için önemli sayfaların 200 yanıt kodu döndürmesi önemli hale gelir.

SEO performansı açısından HTTP 200 dışında durum koduna sahip diğer sayfalar için de düzenli olarak kontrollerin sağlanması ve doğru aksiyonların alınması önemlidir. Aksi durumda yanlış yönlendirmeler, herhangi bir sebepten sayfaların bulunamaması veya sunucu kaynaklı tekrar eden erişim problemleri hem arama motoru botları tarafından hem de kullanıcılar açısından iyi karşılanmaz. Bu gibi HTTP durum kodlarından kaynaklı hatalar yüzünden arama motorları sayfalarınızı doğru bir şekilde tarayamayabilir veya indeksleyemeyebilir. Bununla birlikte kullanıcılar sitenizden erken ayrılabilir, yanlış sayfalar için tarama bütçenizden harcanabilir. Tüm bunlar ise SEO performansınızı olumsuz etkileyebilir.

HTTP Durum Kodu Hataları Nasıl Düzeltilir?

HTTP durum kodlarından kaynaklı bir hata ile karşılaşıldığında ilgili URL’deki HTTP kodunun gerçekten var olup olmadığı kontrol edilmelidir. İlgili URL’lerin HTTP durum kodları tam olarak belirlendikten sonra gerekli aksiyonların (URL’in aktif hale getirilmesi, sunucu kaynaklı hataların giderilmesi veya URL yönlendirmesi gibi) alınması gerekir.

HTTP 3xx (301, 302) Durum Kodu Hataları Nasıl Düzeltilir? 

3xx durum kodları erişilmek istenen sayfanın farklı bir sayfaya yönlendirildiğini ifade eder. Bu noktada erişilmek istenilen sayfanın kalıcı olarak mı geçici olarak mı yönlendirildiği önemlidir. Yönlendirilen sayfa yanlışlıkla yönlendirildiyse yönlendirmenin iptal edilerek sayfanın tekrar 200 yanıt kodu döndürmesi sağlanmalıdır. Sayfa daha kullanılmayacak ve kalıcı olarak farklı bir sayfaya yönlendirilmesi gerekiyorsa 301 durum kodu döndürerek tek seferde yönlendirilmesi, sayfa bir süreliğine yönleniyor ve sonra tekrar aktif hale getirilecekse 302 durum kodu döndürmesi beklenir.

HTTP 3xx (301, 302) Yönlendirmeleri Sonrası Neler Yapılmalıdır? 

Her iki yönlendirme için de yeni adresin doğru olup olmadığı kontrol edilmelidir. Ayrıca yönlenen sayfanın hedef sayfaya tek seferde yönlendirilmesi gerekir. Aksi durumda yönlendirme döngüleri ve yönlendirme zincirlerinin sebep olduğu performans sorunları yaşanabilir.

Yönlendirme işlemlerinden sonra tarama bütçesine zarar vermemek adına site genelinde eski sayfaya giden tüm bağlantılar, yeni sayfayı işaret edecek şekilde güncellenmelidir. Ayrıca tüm site haritalarında eski URL’in kaldırılması ve yeni URL’in servis edilmesi gerekir.

Son olarak arama motorlarının, ilgili sayfanın taşındığını ve yeni URL’yi kullanması gerektiğini anlaması için URL Denetim Aracı ile bir yeniden indeksleme isteği gönderilebilir. Böylece arama motorları sayfanın yönlendiğini daha hızlı algılayabilir ve güncel sayfanın dizine ekleme süresi iyileşebilir.

HTTP 404 Durum Kodu Hataları Nasıl Düzeltilir? 

404 durumundaki URL’leriniz arasında benzer veya yakın başka bir URL’e yönlendirebileceğiniz sayfalarınız var ise, ihtiyacınıza göre 301 kalıcı yönlendirme veya 302 geçici yönlendirme yaparak 404 sayfalarınızı yönlendirebilirsiniz. Bu sayede kullanıcılarınız 404 sayfa ile karşılaşmadan sitenizi kullanmaya devam ederken arama motoru botları da ilgili 404 URL’lerin başka bir hedefe taşındığını ve yeni URL’i kaale alması gerektiğini öğrenir.

404 URL’leriniz arasında yönlendirme yapamayacağınız ve 404 olarak kalmaya devam edecek URL’leriniz varsa özellikle tarama bütçesi optimizasyonu kapsamında HTTP 410 durum kodu döndürmeleri önerilir.

Her iki senaryoda da site genelinde 404 durumunda olan URL’lerinize giden tüm iç bağlantılar kaldırılmalı veya yeni URL’i işaret edecek şekilde güncellenmelidir. Ayrıca tüm site haritalarınızdaki 404 bağlantılar da kaldırılmalıdır.

Soft 404 Uyarıları Nasıl Düzeltilir?

Soft 404 uyarısı aldığınız sayfada içerik mevcut değilse ve bu sayfa gerçekten kapanması gereken bir sayfaysa, HTTP 404 veya 410 durum kodu döndürülmesi sağlanmalıdır. 404 durumunda olan sayfalar için 410 durum kodu döndürmek arama motorlarına sayfanın kesin olarak kalıcı şekilde kapatıldığı ve indeksten düşürülebileceği bilgisi verilir. Bu nedenle Soft 404 olarak görünen sayfalarınız 404 olarak kalmaya devam edecekse, HTTP yanıt kodunda 410 döndürmeniz daha doğru bir aksiyon olur.

Sayfadaki içerikler farklı bir sayfaya taşındıysa bu durumda kalıcı yönlendirme yapılmalıdır. Soft 404 uyarısı alınan sayfanın 301 kalıcı yönlendirme ile içeriğin taşındığı yeni sayfaya yönlendirilmesi gerekir. Böylece kullanıcılar taşınan içeriğe kesintisiz erişebilirken, arama motorları da sayfanın kalıcı olarak taşındığı bilgisine erişir.

Soft 404 uyarısı alınan ve kullanılmaya devam eden bir sayfa içerik bakımından yeterli olup olmadığı kontrol edilmelidir. İçerik zenginse arama motoru botu sayfayı eksik görmüş olabilir. Kaynakların doğru ve eksiksiz yüklenip yüklenmediği kontrol edilmelidir. Varsa yüklenme problemleri çözülmelidir.

HTTP 500 Sunucu Hataları Nasıl Düzeltilir? 

Search Console’daki Tarama İstatistikleri Raporu’ndan sunucunun durumu kontrol edilmelidir. Sunucu ile ilgili herhangi bir problem ile karşılaşılmadıysa anlık bir hata olabileceği düşünülerek URL Denetleme Aracı’ndan canlı olarak ilgili URL’lere Googlebot ziyaretlerinin sonuçları gözlemlenebilir.

Arama motoru botları bir kullanıcıdan daha fazla istekte bulunduğu için güvenlik duvarı tetiklenebilir ve arama motoru botlarının gönderdiği istekler otomatik engelleniyor olabilir. Böyle bir engelleme olup olmadığı kontrol edilmeli ve tespit edildiği durumda, arama motoru botları güvenlik duvarında whitelist’e eklenmelidir.

 

Dijital Pazarlama Ajansı olarak, markanızın başarılı bir büyüme yolculuğuna çıkması için Boosmart’ın eşsiz pazarlama zekası çözümlerini sunuyoruz. İşletmenizin hedeflerini ve ihtiyaçlarını anlayarak, özelleştirilmiş pazarlama stratejileri oluşturmak için gelişmiş teknolojileri kullanıyoruz.
Boosmart’ın pazarlama zekası çözümleri, markanızın dijital varlığını optimize etmek, hedef kitlenizi daha iyi anlamak ve etkili bir şekilde pazarlama faaliyetlerinizi yönetmek için tasarlanmıştır. Sektördeki en son trendleri takip ediyor ve veri analitiği, yapay zeka ve otomasyon gibi güçlü araçları kullanarak markanızın büyümesini destekliyoruz.

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

SEO 11 Mayıs 2023

Interaction to Next Paint (INP) Nedir?

Erhan Kolci

Google kullanıcının arama ve sayfa deneyimine uzun süredir olduğu gibi büyük önem vermektedir. Algoritmalarını ve baz aldığı metrikleri bu doğrultuda zaman zaman geliştirmektedir.

Google, arama merkezi blogunda bir süre önce INP (Interaction to Next Paint) adını verdiği yeni bir Core Web Vitals metriğinin duyurusunu yapmıştı. Açıkladığı INP metriği mevcut metriklerden FID’nin yerini alacağını da açıkladı. Peki bu INP nedir? FID ile INP’nin farkı nedir? INP nasıl optimize edilir? INP metriğinin detaylarını bu başlıklarla birlikte inceleyelim.

INP Metriği Nedir, INP Süresi Neyi İfade Eder?

INP (Interaction to Next Paint), bir web sayfasının kullanıcı etkileşimlerine ne kadar hızlı yanıt verdiğini ölçen bir Core Web Vitals metriğidir. INP metriği, kullanıcının sayfa üzerindeki butonlara tıklaması, açılır menüden öğe seçmesi, akordeonlara tıklaması, form göndermesi, filtre seçeneklerini değiştirmesi vb. tıklama, dokunma veya klavyeyle etkileşimde bulunma gibi işlemlerine yanıt verme süresini ölçer.

pagespeedinp

INP metriği, ölçülen etkileşim ve sonraki boyama arasındaki süreyi milisaniye cinsinden ifade eder. Bu süre ne kadar kısa olursa, sayfa kullanıcının etkileşimlerine o kadar hızlı yanıt verir. INP metriği, web sayfasının kullanıcı deneyimini ve performansını artırmak için optimize edilmesi gereken kritik bir ölçüttür.

Sayfada gezinme ya da scroll up/down gibi etkileşimler bu metriğe yansımaz. Sayfa içerisinde space, page up, page down tuşu ile klavyeden yapılacak olan etkileşimler INP hesaplanmasına dahil edilmez.

İlk kez 6 Mayıs 2022 yılında web.dev’de açıklanan INP metriği, mevcut Core Web Vitals metriklerinden biri olan First Input Delay (FID) metriğinin yerini alacak. Bu geçiş için planlanan tarih Mart 2024 olarak görünüyor.

Birkaç örnek ile konuyu inceleyelim.

Örnek 1:

inpexample1

Yukarıdaki gibi bir akordeonlu yapıya sahip FAQ alanında solda görüleceği üzere ilk tıklama sonrasında bir gecikme olduğu fark ediliyor. Sağ tarafta görülen alanda ise tıklama gerçekleştiği anda herhangi bir gecikme yaşanmıyor.

Örnek 2:

inpexample2

Bir başka örnekte ise solda görüleceği üzere bir renk attribute seçildiğinde bir süre yine gecikme yaşandığı fark ediliyor. Sağdaki örnekte ise kullanıcıya yaptığı seçim işleminin devam ettiğini belirten bir yükleme alanı gösteriliyor. Bu da kullanıcının bir süre beklemesi gerektiğini gösteriyor. Soldaki durumda ise kullanıcı tıklaması sonrasında herhangi bir değişim olmadığını gördüğünde tekrar tıklama eğilimi gerçekleştirebilir. Bu da sayfa içi deneyimini olumsuz etkileyecek bir unsurdur.

İdeal INP Skoru Ne Olmalıdır?

INP skoru, kullanıcının sayfa içerisindeki etkileşimleriyle birlikte sayfanın boyanması arasındaki sürenin kaydedilmesi ve ardından etkileşim süresine bölünmesiyle hesaplanır.

INP metriği, kullanıcının sayfa üzerindeki butonlara, akordeonlara ve filtre seçenekleri gibi alanlarda tıklama, dokunma veya klavyeyle etkileşimde bulunma gibi işlemlerine yanıt verme hızını ölçer. Web sayfasının INP skoru, sayfa üzerinde belirli bir etkileşim türüne yönelik olarak hesaplanır ve milisaniye cinsinden değerlendirilir.

İdeal INP Skoru Ne Olmalıdır?

  • INP skoru 200 milisaniyenin altındaysa sayfanın yanıt hızının iyi olduğu anlamına gelir.
  • INP skoru 200 milisaniyenin üzerinde ve 500 milisaniyenin altındaysa sayfanın yanıt süresinin iyileştirilmesi gerektiği anlamına gelir.
  • INP skoru 500 milisaniyenin üzerindeyse sayfanın yanıt hızının düşük olduğu anlamına gelir.

 

INP Metriği Nasıl Optimize Edilir?

Öncelikle INP metriği Pagespeed verilerine dahil edildikten sonra sayfa içerisinde hangi elementin INP metriğini olumsuz olarak etkilediğini gözlemlemek gerekecek. Elde edilecek bu bilgi sonrasında oluşan yavaş etkileşimin sebepleri incelenerek iyileştirilmesi sağlanabilir. Ancak genel olarak INP optimizasyonu ile alakalı konulara bakacak olursak:

  • Kullanılmayan JS’lerin optimize edilmesi,
  • İlk yanıt hızının iyileştirilmesi,
  • Render edilmeyi geciktiren kaynakların aza indirilmesi vb. gibi aksiyonlar örnek verilebilir.

 

INP Metriği Nasıl Optimize Edilir?
INP Metriği Nasıl Optimize Edilir?
Ek olarak Chrome’un DevTools Lighthouse verileri üzerinden yukarıdaki görselde görüleceği gibi etkileşimi yavaşlatan elementler tespit edilerek geliştirilebilir.

FID ile INP Farkı Nedir?

FID (First Input Delay) yalnızca ilk etkileşimin gecikmesini ölçümler. Etkileşim sonrası geçen süreyi veya bir sonraki frame’in gösterildiği gecikmeyi ölçümlemez. INP ise etkileşim sonrası gerçekleşen işlemi milisaniye cinsinden ölçümler. Aralarındaki temel fark budur.

fidvsinp

FID aynı zamanda yükleme aşamasında bir sayfada yapılan ilk etkileşimdeki giriş gecikmesini ifade ederken, INP ilk etkileşimlerden daha fazlasını ifade ederek sayfa içerisindeki tüm etkileşimleri kapsamlı bir şekilde değerlendirir.

 

Pagespeed Insight sorgusunda yer alan diğer Core Web Vitals metriklerini detaylı olarak Pagespeed Insight Rehberi ‘nden inceleyebilirsiniz.

 

Kaynaklar:

https://web.dev/inp/
https://www.renderbetter.com/guides/what-is-interaction-to-next-paint-inp
https://blog.scaleflex.com/interaction-to-next-paint-inp/

 

Dijital Pazarlama Ajansı olarak, markanızın başarılı bir büyüme yolculuğuna çıkması için Boosmart’ın eşsiz pazarlama zekası çözümlerini sunuyoruz. İşletmenizin hedeflerini ve ihtiyaçlarını anlayarak, özelleştirilmiş pazarlama stratejileri oluşturmak için gelişmiş teknolojileri kullanıyoruz.
Boosmart’ın pazarlama zekası çözümleri, markanızın dijital varlığını optimize etmek, hedef kitlenizi daha iyi anlamak ve etkili bir şekilde pazarlama faaliyetlerinizi yönetmek için tasarlanmıştır. Sektördeki en son trendleri takip ediyor ve veri analitiği, yapay zeka ve otomasyon gibi güçlü araçları kullanarak markanızın büyümesini destekliyoruz.

 

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

SEO 05 Mart 2023

Search Console » BigQuery: Bulk Data Export Kurulumu ve Kullanım Rehberi

Anıl Zengin

Google, 21 Şubat günü Google Arama Merkezi Blog’unda yaptığı paylaşımla birlikte Search Console performans verilerinin toplu ve düzenli şekilde BigQuery ortamına aktarılabilmesi için “Bulk Data Export(Toplu Veri Dışa Aktarma) özelliğini duyurdu. Duyurudan sonraki 1 haftalık süre içerisinde herkese açık şekilde kullanıma sunulan Bulk Data Export özelliği ile Search Console’daki performans verilerinin tamamı (gizlilik nedeniyle filtrelenen anonimleştirilmiş sorgular dışında) BigQuery ortamına herhangi bir günlük veri limiti olmadan aktarılması mümkün hale geldi. Hazırladığım bu rehberde Bulk Data Export özelliğinin kullanılması için gerekli olan kurulumların nasıl yapılacağını, Search Console’dan BigQuery ortamına performans verilerinin nasıl aktarılacağını ve performans verilerinin BigQuery’den CSV, Google Sheets ve Looker Studio (Data Studio)’ya nasıl dışa aktarılacağını derledim. Bu rehberdeki talimatlar ile birlikte Search Console’dan BigQuery’e veri aktarımı için Bulk Data Export özelliğini sorunsuz bir şekilde kullanabileceksiniz.

Bulk Data Export Kurulumu Nasıl Yapılır?

Google’ın kullanıma sunduğu Bulk Data Export özelliği ile, Search Console verilerinin tümünü BigQuery ortamına hızlı ve düzenli bir şekilde aktarmak mümkün hale geldi. “Toplu veri dışa aktarma” özelliği ile Search Console’dan BigQuery ortamına veri aktarımı için Google Cloud Console içerisinde bir Cloud projesi oluşturmak ve beraberinde gerekli konfigürasyonları tamamlamak yeterli olacak.

1. Adım: Google Cloud Console Projesi Oluşturma

İlk olarak Google Cloud projesi oluşturmak için https://console.cloud.google.com/projectcreate adresine gidin. Devamında gelen ekranda oluşturacağınız proje için bir isim girin.

search-console-big-query-bulk-data-export-kurulumu-1
Projeniz için isim yazdıktan sonra Create butonuna tıklayın ve projenizi oluşturun. Yaptığınız bu işlem sonrasında birkaç saniye içerisinde Google Cloud projeniz oluşturulacak.

2. Adım: Projede BigQuery API Etkinleştirme

Google Cloud projenizde BigQuery’i kullanabilmek için BigQuery API servisini etkinleştirmeniz gerekecek. Bunun için de sol menüde yer alan APIs & Services (API’ler ve Hizmetler) bölümünden Enabled APIs & Services (Etkin API’ler ve Hizmetler) menüsüne tıklayın.

search-console-big-query-bulk-data-export-kurulumu-2
Açılan ekranda üst kısımda yer alan +ENABLE APIS AND SERVICES (+ API’LERİ VE HİZMETLERİ ETKİNLEŞTİR) butonuna tıklayarak BigQuery API‘ı etkinleştirin.

3. Adım: Projenize Search Console’dan Veri Alma İzni Verme

Oluşturduğunuz Google Cloud projesinin Search Console mülkünüzden veri aktarımı yapabilmesi için projenize veri dökümü izni vermeniz gerekmekte. Bunun için sol menüden IAM & Admin (IAM ve Yönetici) bölümüne gidin ve devamında açılan ekranda üst bölümdeki + GRANT ACCESS (+ İZİN VER) butonuna tıklayın.

search-console-big-query-bulk-data-export-kurulumu-3
Açılan paneldeki kutucuğa “[email protected]” adresini yazın ve hemen altındaki rol atama bölümünden BigQuery Job User (BigQuery İş Kullanıcısı) ve BigQuery Data Editor (BigQuery Veri Düzenleyicisi) rollerini seçin. Son olarak da Save (Kaydet) butonuna tıklayın.

4. Adım: Search Console Mülkünde Bulk Data Export Bağlantısını Yapma

Google Cloud tarafındaki tüm konfigürasyonları tamamladıktan sonra, Search Console mülkünüzde Bulk Data Export (Toplu Veri Dışa Aktarma) fonksiyonunu etkinleştirmeniz gerekmektedir. Bunun için Search Console mülkünüzde Settings (Ayarlar) sayfasına gidin, daha sonrasında Bulk data export (Toplu veri dışa aktarma) bölümüne tıklayın. Açılan sayfa üzerinde sizden istenen Cloud project ID (Bulut projesi kimliği) ve Dataset location (Veri kümesi konumu) gibi bilgileri doldurun.

search-console-big-query-bulk-data-export-kurulumu-4
Bu bölümde sizden istenen Cloud Project ID bilgisi için Google Cloud’da projenizin Dashboard (Gösterge Paneli) sayfasını ziyaret edebilirsiniz. Bu bilgileri doldurduktan sonra Continue (Devam) butonuna tıklayın ve son onay için Set up export (Dışa aktarmayı ayarla) butonuna tıklayın. Bu aşamadan sonra herhangi bir uyarı mesajıyla karşılaşmazsanız, tüm konfigürasyonları doğru yapmışsınız demektir.

search-console-big-query-bulk-data-export-kurulumu-5
Ardından veri aktarım süreci otomatik olarak başlayacak ve 48 saat içerisinde Search Console verilerinizin tamamı BigQuery ortamına aktarılmış olacak.

BigQuery’de Search Console Performans Verilerini Görüntüleme ve Dışa Aktarma

Yukarıdaki adımlardaki tüm konfigürasyonları tamamladıktan sonra, 48 saat içerisinde Search Console performans verileriniz BigQuery ortamına akmaya başlayacak. Verilerinizi BigQuery’de görüntülemek için komut ekranından SQL sorguları atmanız yeterli olacaktır.

search-console-big-query-bulk-data-export-kurulumu-6
Elde etmek istediğiniz performans verilerinizdeki Date, Query, Search Type, Device, URL, Impressions, Clicks, Average Positions, CTR, Country gibi tüm metrikleri çeşitli SQL sorgularıyla birlikte istediğiniz formatta saniyeler içerisinde oluşturabilir ve dışa aktarabilirsiniz.

BigQuery’de Search Console Performans Verilerini Görüntüleme

Aşağıdaki örnek SQL kodunu BigQuery ekranında çalıştırmanız durumunda ekranın alt bölümünde tablo şeklinde verilerinizi görebilirsiniz:

SELECT
data_date, search_type, device, query, url, impressions, clicks, country
FROM
`PROJEID.searchconsole.searchdata_url_impression`
Where
query is not null
Order By
Impressions DESC

Not: Kodda kırmızı renkle işaretli olan PROJEID alanına kendi Google Cloud projenizin ID’sini yazmanız gerekmektedir. Yukarıdaki SQL kodu örnek bir veri çıktısı verecektir, ihtiyacınız olan çıktı almak istediğiniz verileri net olarak kapsayacak şekilde düzenleyebilirsiniz.

BigQuery’deki Search Console Performans Verilerini Dışa Aktarma

BigQuery penceresinde SQL sorgularıyla elde ettiğiniz sitenizin Search Console performans verilerini dışa aktarabilir ve bu verileri dilediğinizi gibi görselleştirerek kullanabilirsiniz. Verilerinizi CSV, JSON, BigQuery tablosu, Google Sheets ve Data Studio’ya olacak şekilde farklı şekillerde dışa aktarmanız mümkündür.

 

bigquery-search-console-veri-disa-aktarma-1
Search Console verilerini BigQuery’den dışa aktarma yöntemleri

 

bigquery-search-console-veri-disa-aktarma-google-sheets
BigQuery’deki Search Console performans verilerinin Google Sheet’e aktarılması

 

bigquery-search-console-veri-disa-aktarma-data-studio-looker-studio
BigQuery’deki Search Console performans verilerinin Looker Studio (Data Studio) raporuna aktarılması

 

BigQuery ekranında SQL sorgusu attıktan sonra sayfanın alt bölümünde oluşan tabloyu dışa aktarmak için sağ bölümde bulunan SAVE RESULTS ve/veya EXPLORE DATA seçeneklerini kullanabilirsiniz. Bu sayede verilerinizi hangi şekilde dışa aktarmak istiyorsanız o yöntemi tercih ederek dışa aktarım sağlayabilirsiniz. Verileri dışa aktarırken kullanacağınız yönteme göre çeşitli dosya boyutu limitleri bulunmaktadır. Örneğin direkt olarak Google Drive’a indireceğiniz CSV dosyası maksimum 1 GB boyuta sahip olabiliyorken, bilgisayarınıza indireceğiniz bir CSV dosyası için dosya boyutu limiti 10 MB’tır.

Ek Kaynaklar

https://developers.google.com/search/blog/2023/02/bulk-data-export?hl=en
https://support.google.com/webmasters/answer/12917675?hl=tr
https://www.searchenginejournal.com/google-search-console-bulk-data-export-is-here/480473/  

 

Dijital Pazarlama Ajansı olarak, markanızın başarılı bir büyüme yolculuğuna çıkması için Boosmart’ın eşsiz pazarlama zekası çözümlerini sunuyoruz. İşletmenizin hedeflerini ve ihtiyaçlarını anlayarak, özelleştirilmiş pazarlama stratejileri oluşturmak için gelişmiş teknolojileri kullanıyoruz.

Boosmart’ın pazarlama zekası çözümleri, markanızın dijital varlığını optimize etmek, hedef kitlenizi daha iyi anlamak ve etkili bir şekilde pazarlama faaliyetlerinizi yönetmek için tasarlanmıştır. Sektördeki en son trendleri takip ediyor ve veri analitiği, yapay zeka ve otomasyon gibi güçlü araçları kullanarak markanızın büyümesini destekliyoruz.

 

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

SEO 09 Ekim 2022

Search Console Dizin Raporu Hataları ve Çözümleri

Anıl Zengin

Search Console’da yer alan Dizin raporu üzerinden sayfalarınız ve videolarınız için taranabilirlik ve indekslenebilirlik ile ilgili detayları görüntülemek mümkün. Sitenizdeki URL’lerin taranamaması veya indekslenmemesi durumlarına neden olan sebepler, bu rapor içerisinde detaylarıyla birlikte listelenmekte. Hazırladığım bu içerikte, Search Console’daki Dizin bölümünde yer alan Dizin raporu içerisindeki “Sayfa Sayısı” sekmesinde görüntülenebilen taranabilirlik ve indekslenebilirlik uyarılarını, hatalarını ve çözümlerini bir arada derledim.

Dizine Ekleme Nasıl Gerçekleşir?

Googlebot’un bir URL’i keşfetmesi, URL’e istek atarak tarama gerçekleştirmesi ve devamında Google arama sonuçlarından kullanıcılara servis etmek amacıyla dizine eklemesi genel olarak 4 ana aşamada gerçekleşir. Googlebot, bir URL’i harici bir internet sitesinden verilen bağlantı üzerinden ya da ilgili sitenin site haritasını tarar ve dizine ekleme sürecinin ilk aşaması olan Keşfetme (Discovering) süreci başlar. Keşfetme aşamasından sonra herhangi bir hata olmaması durumunda URL’ler tarama sırasına alınır ve ikinci adım olan Tarama (Crawling) süreci başlar. Bir URL’in taramasını engelleyen (sunucu problemleri, Robots.txt engellemeleri, render sorunları vb.) herhangi bir sorun olmaması durumunda da Tarama gerçekleşir ve son adım olarak sayfanın Dizine Ekleme (Indexing) süreci başlar.

dizine-ekleme-nasil-gerceklesir

Sayfanın dizine eklenmesini engelleyen herhangi bir problem olmaması durumunda da dizine ekleme gerçekleşir. Son adımda da dizine eklenen URL’ler için Servis Etme (Serving) aşaması da tamamlanır ve URL’ler Google arama sonuçları üzerinden kullanıcılara servis edilir.

Search Console Dizin Raporu Ne İşe Yarar?

Search Console’da sol menüdeki “Dizin” başlıklı bölümde yer alan “Sayfa Sayısı” sekmesinde sayfalarınızla ilgili çeşitli taranabilirlik ve indekslenebilirlik verileri yer almaktadır. Tam olarak “Sayfa Sayısı, Video Sayfaları, Site Haritaları ve URL Kaldırma” sekmelerinin yer aldığı Dizin bölümünde görebileceğiniz “Sayfa Sayısı” sekmesinde, sayfalarınızın keşfedilme, taranma ve indekslenme durumlarıyla ilgili uyarı mesajları ve hatalar listelenmektedir. Bu bölümde Google’ın başarıyla taradığı ve dizine eklediği URL’lerinizi görüntüleyebiliyorken aynı zamanda Googlebot’un istek atması sonrasında taranamayan veya tarama gerçekleşse de çeşitli sebeplerden ötürü dizine eklenmeyen sayfalarınızı görüntüleyebilir, sayfalarınızın hangi sebepten dolayı taranamadığını veya indekslenmediğini detaylı bir şekilde inceleyebilirsiniz.

search-console-dizin-raporu-ana-gorunum

Dizin Raporu’ndaki Uyarılar, Hatalar ve Çözümleri

Dizin raporu içerisinde pek çok farklı kategoride uyarı ve hata görebilirsiniz. Burada farklı kategorilere ayrılmış olan uyarı ve hatalar, sayfalarınızın Googlebot tarafından keşfedildikten veya tarandıktan sonra karşılaşılan durumlara göre değişmektedir. Genel olarak baktığımızda bu rapor üzerinde keşfetme, tarama ve indeksleme konularında uyarı mesajları ve hatalar listelenmektedir. Yazının geri kalanında bu raporda sunulan uyarı mesajlarının ve hataların ne olduğunu ve bu hataların çözümlerini basit ve anlaşılır şekilde anlatmaya çalıştım.

Sayfalar neden dizine eklenmiyor?” ve “Sayfa görünümünü iyileştirme” başlıklı iki ana bölüme ayrılan “Sayfayı Dizine Ekleme Raporu“nda genel olarak aşağıdaki uyarı ve hatalarlar karşılaşılır. İki bölümde de URL’lerle ilgili taranabilirlik ve indekslenebilirlik sorunları nedenleriyle birlikte alt alta açılır sekmelerle listelenmektedir.

search-console-dizin-raporu-sayfalar-neden-dizine-eklenmiyor

Sayfalar neden dizine eklenmiyor?” başlığı altında genel olarak aşağıdaki uyarı mesajları listelenmektedir:

Robots.txt tarafından engellendi

Bildiğiniz üzere Robots.txt dosyanızda kullanmış olduğunuz Disallow komutları ile doğrudan bir URL’in, bir dizinin veya birden fazla URL’in Googlebot tarafından taranmasını engelleyebiliyorsunuz. Bu durumda Google da Search Console’daki Dizin raporu üzerinde size bu durumla ilgili “Robots.txt tarafından engellendi” şeklinde bir uyarı mesajı gösteriyor. Uyarı mesajının üzerine tıkladığınızda da hangi URL’lerinizin bu engellemeden dolayı taranamadığını görebiliyorsunuz.

Çözüm: Bu mesaj her zaman için çözülmesi gereken bir hata mesajı değildir. Google burada sadece Robots.txt komutlarınızdan dolayı taranamayan URL’leriniz olduğunu size bildirir. Burada yapmanız gereken tek şey, Robots.txt engellemelerinden etkilenen URL’leriniz arasında hesapta olmayan ve sizin için önemli olan bir URL’inizin olup olmadığını kontrol etmektir. Zira Robots.txt dosyasına eklenen Disallow komutlarının hatalı yazılması oldukça sık karşılaşılan bir sorundur ve bu hata nedeniyle oldukça önemli URL’lerin taranamaması mümkündür. Yaptığınız değişiklik sonrasında URL’lerinizin tekrar değerlendirilmesi için “Düzeltmeyi Doğrula” butonuyla Google’a bir inceleme talebi gönderebilirsiniz.

Başka bir 4xx sorunu nedeniyle engellendi

Bu hatayı gördüğünüz URL’leriniz, Google’ın Search Console’da listelemiş olduğu 4xx hatalarından farklı bir kategoride 4xx sorununa sahip olabilir. Örneğin bir URL’iniz 404 yanıt koduna sahipse bunu Search Console’da görüntüleyebilirsiniz fakat bir URL’iniz 405, 406 veya 408 gibi çeşitli 4xx hatalarına sahipse, Google bunu ayrı olarak Search Console’da göstermez ve bu durumdan etkilenen URL’ler “Başka bir 4xx sorunu nedeniyle engellendi” sekmesinin içerisinde gösterilir.

Çözüm: İlk olarak bu sorundan etkilenen URL’leriniz için URL Denetim Aracı üzerinden yeni bir test yaparak Googlebot’un sayfayı taradığında hangi yanıtı gördüğünü ve bu yanıtın neyden kaynaklandığını tespit etmeniz gerekir. Daha sonrasında da ilgili URL’lerin yeniden 200 HTTP yanıtını vermesi için gerekli aksiyonların alınması gerekmektedir. Buradaki sorundan etkilenen URL’leriniz için aldığınız aksiyonlar sonrasında URL’lerinizdeki sorunları çözdüğünüzü Google’a “Düzeltmeyi Doğrula” butonuyla bildirebilirsiniz.

Keşfedildi – şu anda dizine eklenmiş değil

Googlebot, sitenizdeki URL’leri farklı kaynaklar üzerinden keşfedebilir. Keşfetme aşaması, URL’lerinizin harici sitelerden aldığı bağlantılar yardımıyla, sosyal medya platformlarından sitenize gelen bağlantılar üzerinden veya Search Console’dan Google’a gönderdiğiniz site haritanız üzerinden gerçekleşebilir. Fakat her keşfedilen URL anında tarama sırasına alınmaz ve dizine eklenmez. Keşfedilen URL’lerin Googlebot tarafından taranması bir sonraki aşamada gerçekleşir ve bir URL’in taranması için Googlebot’un beklenmesi gerekir.

Çözüm: Bu uyarı mesajının görülmesi her zaman için bir hata olduğu anlamına gelmemektedir. Google bu mesaj ile birlikte aslında URL’lerinizin keşfedildiğini ve dizine eklemeye giden yoldaki ilk aşamanın tamamlandığını bildirir. Keşfedilen URL’lerinizin taranması ve dizine eklenmesi için yapabileceğiniz net bir aksiyon olmasa da genel olarak sayfalarınızın SEO kriterlerine uyumlu olmasını sağlamak, içerik kalitenizi üst seviyede tutmak ve Google’ın kalite yönergelerine uyumlu sayfalar servis etmek iyi bir adım olabilir.

Tarandı – şu anda dizine eklenmiş değil

Tıpkı keşfedilen URL’lerin anında taranmasının her zaman mümkün olmaması gibi taranan URL’lerinizin de anında dizine eklenmesi de her zaman mümkün değildir. Dizin raporunda görmüş olduğunuz bu mesaj, URL’lerinizin tarandığını fakat henüz Google’da dizine eklenmediği anlamına gelir. Bu uyarı mesajı içerisinde listelenen URL’lerinizin henüz dizine eklenmemesi için birçok sebep olabilir. Genel olarak bakıldığında site geneli tarama bütçesi sorunlarının bulunması, sorundan etkilenen URL’lerdeki içerik kalitesinin yetersiz olması, kopya içerik kullanımı ve bunlardan hariç olarak Googlebot’un sayfayı dizine eklemek için yeteri kadar kaliteli bulmaması olarak değerlendirilir. Eğer yüksek sayıda URL’iniz bu sorundan etkileniyor ve dizine eklenmiyorsa sitenizin organik trafik kazanımına ciddi bir engel demektir.

Çözüm: Site genelinde tarama bütçesi yönetimi aksiyonlarını belirleyerek Googlebot’u verimsiz sayfalar yerine SEO performansınız için önemli olan değerli sayfalarınıza yönlendirmeniz gerekir. Tarama bütçesi yönetimi aksiyonlarınız sonrasında taranıp dizine eklenmeyen sayfalarınız olsa bile bu sayfalar sizin için zaten SEO tarafında bir önemi olmayan sayfalarınız olacak. İkinci olarak sorundan etkilenen URL’leriniz için bir içerik denetimi yapmanız da tavsiye edilir. Sayfalarınızdaki içerik zayıf ve yetersiz seviyedeyse içerikler mutlaka güçlendirilmeli ve zenginleştirilmelidir. Ayrıca sayfalarınızda kopya içerik kullanımı mevcutsa ya da yalnızca Googlebot’u hedeflemek için hazırlanan içeriklere sahipseniz de yine bu sayfalarınız için içeriklerinizi revize etmeniz gerekir.

“noindex” etiketi tarafından hariç tutuldu

Dizin raporunda gördüğünüz bu mesaj, bir hatadan dolayı görünmez ve site sahibini bilgilendirmek için gösterilmektedir. Bildiğiniz üzere noindex etiketi sayfanın arama sonuçlarında listelenmemesi için Googlebot’a bilgi verir ve sayfa daha önceden indekslenmişse arama sonuçlarından kalkması ya da ilk defa indekslenecek durumdaysa da indekslenmesinin önüne geçilmek için kullanılır. Burada önemli olan nokta ““noindex” etiketi tarafından hariç tutuldu” sekmesine tıkladığınızda bu uyarı mesajına dahil olan URL’lerinizin hangi sayfalarınız olduğudur. Bu sekme içerisinde noindex etiketine sahip URL’leriniz arasında SEO performansınız açısından önemli olan bir sayfanız varsa bu ciddi bir sorundur. Önemli sayfalarda belli sebeplerden dolayı noindex etiketi unutmak sık karşılaşılan bir hatadır.

Çözüm: Bu bir uyarı mesajı olduğu için her zaman bir hata olarak sayılmaz ve bir çözüm aksiyonuna da her zaman gerek olmayabilir. Önemli olan tek nokta, ““noindex” etiketi tarafından hariç tutuldu” uyarısı içerisinde yer alan URL’ler arasında önemli URL’lerinizin olup olmadığıdır. Eğer önemli bir URL’iniz bu uyarıdan etkileniyorsa, ilgili URL’inizde yer alan noindex etiketini kaldırmanız gerekmektedir.

Erişim izni verilmemesi (403) nedeniyle engellendi

403 HTTP koduna sahip olan bu hata, bir URL’inize atılan istek sonrasında sunucunuzun ilgili URL’e erişimi yasaklaması durumunda oluşur. 403 hatasıyla gerçek bir kullanıcı da Googlebot da karşılaşabilmektedir ve istenen URL’e erişimin sunucu tarafından yasaklanarak engellendiği bilgisini sağlar. 403 hatasıyla karşılaşan Googlebot, taramak istediği sayfa için erişim izni alamadığından dolayı tarama gerçekleşmez ve ilgili URL Search Console’daki bu uyarının içerisinde gösterilir.

Çözüm: Sunucunuzdaki konfigürasyonlar üzerinden ilgili URL’ler için bir erişim düzenlemesi yapmanız gerekir. Yaptığınız düzenlemenin ardından Search Console’daki URL Denetim Aracı’nı kullanarak Googlebot’un URL’inizi taradığında hangi HTTP yanıtını aldığını kontrol edebilirsiniz. URL’lerinizdeki erişim sorununu düzeltmenizin ardından sorunun çözüldüğünü Google’a bildirmek için “Düzeltmeyi Doğrula” butonunu kullanabilirsiniz.

Bulunamadı (404)

Googlebot, bir URL’inize tarama isteği attığında HTTP yanıtında 404 görmesi durumunda sayfanızın artık bulunamadığını anlar ve başarısız bir tarama gerçekleşir. Dizin raporunda bu sekme içerisinde gördüğünüz URL’ler, dışarıdan verilen bir bağlantı sonrasında Googlebot’un keşfetmesiyle oluşan veya sitenizde daha önceden oluşmuş fakat şu anda bulunmayan URL’leri ifade eder. Herhangi bir ek aksiyon almadığınız sürece, Googlebot bir kere keşfettiği bir 404 URL için belli aralıklarla tekrar tarama gerçekleştirir ve URL’in durumunu kontrol eder. Zaman geçtikçe üst üste 404 yanıtı alınan bir URL için tarama sıklığı düşse de, Googlebot’a bir URL’i artık kalıcı olarak taramaması gerektiğini belirtmenin bir yolu yoktur. Son olarak, bu uyarı içerisinde gördüğünüz URL’leriniz eğer belli bir plan dahilinde 404 olarak bıraktığınız sayfalar ise bu uyarı mesajını göz ardı edebilirsiniz.

Çözüm: Bu sekme içerisinde gördüğünüz 404 URL’ler arasında farklı bir URL’e taşıdığınız sayfalar mevcutsa, 404 URL’lerinizin yeni adreslerine yönlenebilmesi için 301 yönlendirme uygulamanız tavsiye edilir. Yapacağınız 301 yönlendirmeyle birlikte hem gerçek kullanıcıları hem de Googlebot’u yeni ve çalışan bir URL’e yönlendirebilirsiniz. Ayrıca yaptığınız 301 yönlendirme, eski URL’inizin sahip olduğu Google dizinin yeni URL ile değişmesini, otoritenin ve backlink katkısının da yeni URL’e aktarılmasını sağlar. 404 hatasına sahip olan URL’leriniz için gerekli yönlendirme aksiyonlarını tamamladıktan sonra ilgili URL’lerinizin kontrol edilmesi için “Düzeltmeyi Doğrula” butonuyla Google’a bir inceleme talebi gönderebilirsiniz.

Soft 404

Soft 404, 200 yanıtına sahip bir sayfanın içeriğinin boş olması durumunda veya sayfa görünümünün bir 404 sayfasıyla aynı olmasına sahip olması durumunda gösterilen bir uyarıdır. HTTP 200 yanıt koduna sahip bir sayfanın teknik bir hatadan dolayı yüklenememesi, sayfanın Googlebot tarafından render edilememesi, içeriğinin boş olarak yüklenmesi ya da tasarımsal olarak bir 404 sayfası gibi kullanıcılara 404 hata mesajı göstermesi durumlarında Google tarafından Soft 404 olarak işaretlenmesi sağlanır. Soft 404 olarak işaretlenen sayfalar için dizine ekleme gerçekleşmez ve kullanıcılara arama sonuçlarında gösterilmez.

Çözüm: Dizin raporunda Soft 404 olarak işaretlenen URL’lerinizin çalışıp çalışmadığını kontrol ederek başlayabilirsiniz. Eğer bu sayfalar açılmıyorsa, URL’lerinizin içeriğinin yüklenmeme sebebini tespit etmeniz ve buna neden olan teknik/yazılımsal problemlerin giderilmesini sağlamanız gerekir. Eğer sayfalarınız açılıyor fakat sayfaların içeriği boş durumdaysa da bu sayfalarınızı kullanışlı hale getirmeniz gerekir. Son olarak sayfalarınız tıpkı bir 404 sayfası gibi davranarak “Bulunamadı” benzerinde bir hata mesajı gösteriyorsa da buna sebep olan durumu tespit etmeniz ve çözüme kavuşturmanız gerekir. URL’lerinizdeki sorunları çözdükten sonra Search Console üzerinden Soft 404 hatası için “Düzeltmeyi Doğrula” butonu yardımıyla Google’a değerlendirme talebi gönderebilirsiniz.

Sunucu hatası (5xx)

5xx hataları, bir sayfanın sunucu kaynaklı yaşanan problemlerden dolayı yüklenmesinin veya taranmasının mümkün olmadığı durumlarda bir uyarı mesajı olarak gösterilmektedir. Sunucunuzda yaşanan bir sorun, URL’lerinizin çalışmasına ve sayfalarınızın kullanılabilmesine engel olabilir. Bu durumda da sayfanızı tarayan Googlebot, HTTP yanıtı olarak 500 veya buna benzer bir yanıt alır. Sunucu probleminden dolayı taranamayan URL’leriniz dizine eklenmez ve Dizin raporu içerisindeki “Sunucu hatası (5xx)” içerisinde listelenir.

Çözüm: Sunucunuzda sayfalarınızın çalışmasını engelleyen problemin çözülmesi gerekmektedir. Sunucunuzda hatalı bir konfigürasyon dolayı, veritabanı bağlantı problemlerinden dolayı veya buna benzer sunucu kaynaklı sorunlardan dolayı URL’leriniz çalışmıyor olabilir. Bu problemin tespit edilip çözülmesi durumunda –farklı bir durum yaşanmadığı sürece– sayfalarınız HTTP 200 yanıt koduyla çalışır hale gelecektir. Sayfalarınızdaki 5xx sorunlarını çözüme kavuşturduktan sonra Search Console üzerinden “Düzeltmeyi Doğrula” butonunu kullanarak Google’a sorunu çözdüğünüzü bildirebilir ve yeniden incelenmesini sağlayabilirsiniz.

Yönlendirmeli sayfa

Yönlendirmeli sayfa uyarısı, farklı yönlendirme problemlerinin neden olabileceği bir uyarı mesajıdır. Bir URL’e istek atıldıktan sonra ilgili URL sizi başka bir URL’e yönlendirebilir. Eğer bu yönlendirme çok uzunsa ve son URL’e ulaşana kadar arada birçok yönlendirme uygulanıyorsa zincirin sonundaki URL’e ulaşmak zorlaşır ve Googlebot’un tarama işlemini sağlıklı bir şekilde tamamlaması da güçleşir. Bu durumda da tarama gerçekleşmez ve bu sorunun yaşandığı URL, Dizin raporundaki “Yönlendirmeli sayfa” sekmesine yazılır. Bu durumdan hariç olarak, bir URL’in sürekli olarak kendine yönlenerek sonsuz bir yönlendirme döngüsüne girmesi durumunda da yine bu sorunla karşı karşıya kalınabilir. Googlebot bu durumda da taramayı gerçekleştiremez ve ilgili URL yine Dizin raporundaki “Yönlendirmeli sayfa” sekmesinde listelenir.

Çözüm: Yönlendirmeli sayfa sorunundan etkilenen URL’leriniz için genel bir kontrol yapılması ve yönlendirme aşamaları kontrol edilmelidir. Eğer bir URL’iniz yönlendirme çeviriyorsa ve arada birçok yönlendirme varsa, bu durum “redirect chain (yönlendirme zinciri)“e sebep olur ve tarama zorlaşır. Bu nedenle, yönlendirme çeviren URL’lerinizin her zaman tek bir yönlendirmeyle hedef URL’e yönlenmesi gerekmektedir. Ayrıca kendi kendine yönlenen URL’leriniz mevcutsa yine bu URL’lerinizde de yönlendirmenin kaldırılması ve sayfanın çalışıp çalışmadığı ve taranmaya uygun olup olmadığı kontrol edilmelidir. Sorunlarınızı çözüme kavuşturduktan sonra uyarı sayfasında “Düzeltmeyi Doğrula” butonuna tıklayarak Google’dan yeniden değerlendirme yapmasını ve URL’leriniz için tekrar tarama gerçekleştirmesini isteyebilirsiniz.

Yeniden yönlendirme hatası

Yukarıdaki sorundan hariç olarak bir URL’iniz için “Yeniden yönlendirme hatası” uyarı mesajını görüyorsanız, bu durum yaptığınız bir URL yönlendirmesinde hedef sayfanın çalışmadığını belirtmektedir. Örneğin A sayfasını B sayfasına yönlendirdiyseniz ve hedef URL olan B sayfası 404 durumundaysa bu senaryoda A sayfası, Search Console’daki Dizin raporunda “Yeniden yönlendirme hatası” içerisinde listelenecek ve bir uyarı gösterilecektir.

Çözüm: Yaptığınız URL yönlendirmelerinde eğer hedef URL çalışmıyorsa, buradaki yönlendirmeleri kaldırıp başlangıç URL’lerinizi çalışan ve sorunsuz şekilde taranabilen URL’lerinize yönlendirmeniz gerekmektedir. Bu aksiyon sonrasında Dizin raporu üzerinden “Düzeltmeyi Doğrula” butonuna tıklayarak Google’a sorunu çözdüğünüzü bildirebilirsiniz.

Doğru standart etikete sahip alternatif sayfa

Dizin raporu içerisinde görmüş olduğunuz “Doğru standart etikete sahip alternatif sayfa” adlı uyarı mesajı, herhangi bir hata değildir ve ortada çözülmesi gereken bir sorun yoktur. Bu mesaj içerisinde görmüş olduğunuz URL’leriniz için doğru Canonical URL kullanımı yaptığınız bilgisi aktarılmaktadır.

Çözüm: Canlı sitenizde de bu rapor içerisinde yer alan URL’lerinizde hatalı bir Canonical URL kullanımı yoksa herhangi bir problem yoktur. Fakat canlı sitede bu URL’leriniz için Canonical etiketleriniz farklıysa ve bu bir SEO stratejisi dahilinde planlanmadıysa, sayfalarınızın Canonical URL’lerine müdahale etmeniz ve doğru Canonical URL’i kullanacak şekilde düzenleme yapmanız gerekir.

Kullanıcı tarafından seçilen standart sayfa olmadan kopya

Bu uyarı içerisinde listelenen URL’ler, Googlebot’un tarama gerçekleştirdiği fakat içeriğinin kopya olması ya da başka bir sayfayla çok benzer olması durumundan dolayı dizine eklemediği sayfalardır. Eğer URL’lerinizde kopya/benzer içerik durumu yoksa ve halen bu uyarı mesajı içerisinde gösteriliyorsa, URL’lerinizde Canonical etiketinin kullanılmadığı anlamına gelir.

Çözüm: Eğer sayfalarınızdaki içerik kopya veya başka bir sayfa ile çok benzerse, bu sayfalar için içerik düzenlemeleri yapmanız gerekmektedir. Eğer sorun içerik problemlerinden dolayı kaynaklanmıyorsa da sayfalarınızda bir Canonical URL olup olmadığını kontrol etmeniz gerekir. Eğer bu URL’lerinizde bir Canonical URL kullanımı bulunmuyorsa, URL’leriniz için doğru Canonical URL kullanımı yaparak sorunu aşabilirsiniz. Yaptığınız düzenlemeler sonrasında Google’ın URL’lerinizi kontrol etmesi için “Düzeltmeyi Doğrula” butonuna tıklayarak doğrulama sürecini başlatabilirsiniz.

Kopya, Google kullanıcıdan farklı bir standart sayfa seçti

Sitenizdeki URL’lerde geçerli bir Canonical URL kullansanız da bazı durumlarda Googlebot yaptığı taramadan sonra belirttiğiniz Canonical URL’i es geçer ve sitenizdeki başka benzer bir sayfanın daha uygun olduğunu düşünerek davranır. Bu durumda da tarama yaptığı URL yerine kendi tercih etmiş olduğu URL’i dizine ekler. Özellikle içerik benzerliği durumunun olduğu sitelerde karşılaşılan bir uyarı mesajıdır. Örneğin “8 Ekim 2022 Döviz Kuru” ve “9 Ekim 2022 Döviz Kuru” adlı iki sayfanın var olduğunu düşünelim. Bu iki sayfa içerik bakımından çok benzer olacağı için Googlebot yaptığı tarama sonrasında bu iki sayfayı da dizine eklemeyebilir. Bu uyarı mesajında olduğu gibi kendisin bir tercih yaparak uygun gördüğü URL için dizine ekleme gerçekleştirebilir. Ayrıca bu uyarı mesajıyla Canonical URL’lerin doğru tercih edilmediği durumlarda da karşılaşılır ve önemli sayfaların dizine eklenmesine engel olabilir.

Çözüm: Öncelikle URL’lerinizde kullandığınız Canonical URL’lerin sayfalarınız için gerçekten en iyi Canonical URL tercihi olup olmadığını kontrol edebilirsiniz. Eğer bu noktada herhangi bir problem yoksa ve Canonical URL’leriniz olması gerektiği gibiyse, sorunun yaşandığı sayfalarınız için site genelinde inceleme yaparak içerik benzerliği durumunun olup olmadığını kontrol edebilirsiniz. Yaptığınız değişikliklerin ardından sorunun çözüldüğünü Google’a bildirmek için “Düzeltmeyi Doğrula” butonunu kullanabilirsiniz.

Sayfa görünümünü iyileştirme” başlığı altında genel olarak aşağıdaki uyarı mesajları listelenmektedir:

search-console-dizin-raporu-sayfa-gorunumunu-iyilestirme-1

Robots.txt tarafından engelleniyor olsa da dizine eklendi

Dizin raporunda “Sayfa görünümünü iyileştirme” başlığı altında listenen bu uyarı mesajı, Robots.txt dosyası üzerinden Disallow komutu ile yapılan bir URL engellemesine rağmen URL’in tarandığını ve dizine eklendiğini bildirmektedir. Peki Robots.txt üzerinden Googlebot taramasına izin verilmeyen bir URL, nasıl oluyor da Googlebot tarafından taranabiliyor ve ayrıca dizine de eklenebiliyor? Google, bu durumu şöyle açıklamakta: Robots.txt dosyası üzerinden bir URL için tarama engeli olsa da, harici bir siteden bu URL’e bir bağlantı verildiğinde Googlebot bu bağlantıyı takip eder ve dizine ekleme gerçekleştirir.

Çözüm: Robots.txt üzerinden engellediğiniz URL’lerinizin dizine eklenmemesi için ilgili URL’lere “noindex” etiketi de eklemeniz gerekmektedir. Böylece sayfanızda kullandığınız noindex etiketi, URL’inizin dizine eklenmesinin kesin olarak önüne geçecektir.

Sayfa içerik olmadan dizine eklendi

Özellikle teknik hatalardan dolayı içeriği yüklenemeyen sayfalar için karşılaşılan bu uyarı mesajı, bir sayfanın içeriğinin Googlebot tarafından render edilemediği / okunamadığı durumlarda gösterilmektedir. Sayfa içeriği Googlebot tarafından okunamasa da dizine ekleme gerçekleşir ve kullanıcılara arama sonuçları üzerinden servis edilir.

Çözüm: Bu uyarı mesajı içerisinde gösterilen URL’lerinizdeki yüklenme sorunlarının tespit edilmesi ve çözülmesi gerekmektedir. Yaptığınız düzenlemeler sonrasında sayfa içeriğinizin Googlebot tarafından okunabilir olup olmadığını Search Console’daki URL Denetim Aracı üzerinden kontrol edebilirsiniz. Sayfalarınızdaki yüklenme sorunlarını çözdükten sonra URL’lerinizin tekrar incelenmesi için “Düzeltmeyi Doğrula” butonunu kullanabilirsiniz.

 

Ek Bağlantılar

https://support.google.com/webmasters/answer/
7440203

https://www.contentkingapp.com/academy/index-coverage/

https://www.oncrawl.com/oncrawl-seo-thoughts/search-console-coverage-report/ 

 

Dijital Pazarlama Ajansı olarak, markanızın başarılı bir büyüme yolculuğuna çıkması için Boosmart’ın eşsiz pazarlama zekası çözümlerini sunuyoruz. İşletmenizin hedeflerini ve ihtiyaçlarını anlayarak, özelleştirilmiş pazarlama stratejileri oluşturmak için gelişmiş teknolojileri kullanıyoruz.
Boosmart’ın pazarlama zekası çözümleri, markanızın dijital varlığını optimize etmek, hedef kitlenizi daha iyi anlamak ve etkili bir şekilde pazarlama faaliyetlerinizi yönetmek için tasarlanmıştır. Sektördeki en son trendleri takip ediyor ve veri analitiği, yapay zeka ve otomasyon gibi güçlü araçları kullanarak markanızın büyümesini destekliyoruz.

 

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

SEO 30 Ağustos 2022

Search Console Nedir ve Nasıl Kullanılır? Search Console Rehberi

Anıl Zengin

Search Console Nedir?

Search Console, Google tarafından ilk olarak “Google Webmaster Tools” adıyla kullanıma sunulan ücretsiz bir araçtır. Search Console aracı yardımıyla sahipliği doğrulanan bir internet sitesinin taranabilirlik, indekslenebilirlik ve teknik SEO problemlerini tespit etmek ve sitenin organik trafik performansına dair verileri görmek mümkündür. Search Console tamamen ücretsiz olarak sunulur ve bir Google hesabında maksimum 1000 site mülkü barındırılmasına izin verilir.

Ön İzleme, URL Denetimi, Performans, Dizin, Deneyim, Geliştirmeler, Güvenlik ve Manuel İşlemler, Eski Araçlar ve Raporlar, Bağlantılar ve Ayarlar menülerinin yer aldığı Search Console üzerinden internet sitenizin Google arama sonuçları üzerinden daha fazla ziyaretçiye ulaşmasına yönelik ihtiyacı olan geliştirmelere dair ipuçları edinmeniz mümkündür. Ayrıca Performans menüsündeki rapor ekranından dilediğiniz filtreleri kullanarak birçok rapor oluşturabilir ve organik performansınızı takip edebilirsiniz. Yazının devamında bir internet sitesini Search Console’a kaydetme, Search Console’daki performans raporlarını kullanma, internet sitenizin Googlebot tarafından taranabilirlik & indekslenebilirlik konularında yaşadığı sorunları inceleme ve SEO performansınızı iyileştirmeye yönelik kullanabileceğiniz Search Console sayfalarını keşfedebilirsiniz.

search-console-internet-sitesi-kaydetme-mulk-olusturmak

İnternet Sitenizi Search Console’a Kaydetme

İnternet sitenizin Search Console kaydını yapmak ve Search Console’u kullanmaya başlamak için öncelikle mülk oluşturmanız gerekmekte. Mülk oluşturma aşamasında “Alan Adı Doğrulaması” ve “URL Ön Eki Doğrulaması” olarak iki farklı doğrulama yöntemi sunulmakta ve bu seçeneklerden birini tercih ederek mülk ekleyebilirsiniz. Aşağıdaki ara başlıklarda, her iki mülk oluşturma seçeneklerinin detaylarını okuyabilirsiniz.

Alan Adı Doğrulaması

Alan adı doğrulaması, oluşturulacak Search Console mülkünün domain bazında olacak şekilde ve her URL protokolünü kapsayacak şekilde yaratılmasıdır. Bir internet sitesi aşağıdaki gibi farklı kombinasyonlarda çalışmaya uygun olabilir:

  • http://site.com
  • http://www.site.com
  • https://site.com
  • https://www.site.com

Ayrıca aynı domaininizde kullandığınız subdomain’ler varsa, tüm subdomainlere dair verileri de Alan Adı Doğrulaması altında tek bir mülkte görüntüleyebilirsiniz. Yani aşağıdaki örneklerdeki gibi subdomain’lere sahipseniz, Alan Adı Doğrulaması içerisinde bu subdomain’lere dair verileri de görüntüleyebilirsiniz:

  • m.site.com
  • test.site.com
  • forum.site.com
  • kurumsal.site.com

Yukarıdaki örneklerdeki seçeneklerin tamamını kapsayan Alan Adı Doğrulaması, bu protokollerde bir veri toplanması durumunda tüm veriyi kendi içerisinde ve tek mülk altında gösterir.

Alan Adı Mülkü oluşturmak için Google domainin size ait veya yönetiminizde olduğuna dair bir kanıt talep eder. Bunun için domainin DNS kaydına ekleyeceğiniz bir TXT veya CNAME kaydı ile Google’a bu domainin size ait veya yönetiminizde olduğunu kanıtlamanız gerekir.

google-search-console-txt-cname-kaydi-ile-dogrulama

Alan adınızın DNS yönetim bölümünden domaininiz için Google’ın size verdiği değerler doğrultusunda TXT veya CNAME kaydı oluşturmanız ve sonrasında Search Console üzerinden doğrulama yapmanız yeterli olacaktır. Doğrulamanın başarılı şekilde gerçekleşmesi durumunda Alan Adı Mülkü başarıyla oluşturulacak ve kullanımınıza sunulacak.

URL Ön Eki Doğrulaması

Search Console’un temel doğrulama yöntemi olan ve uzun yıllardır kullanılan URL Ön Eki Doğrulaması, bir sitenin çalıştığı herhangi bir protokoldeki versiyonu için bir Search Console mülkü yaratmanıza olanak sağlar. Örneğin aşağıdaki tüm URL varyasyonları için ayrı ayrı URL Ön Eki Doğrulaması yapılması gerekmektedir:

  • http://site.com
  • http://www.site.com
  • https://site.com
  • https://www.site.com
  • m.site.com
  • test.site.com
  • forum.site.com
  • kurumsal.site.com

URL Ön Eki Doğrulaması bölümünde ilgili sitenin size ait olduğunu Google’a kanıtlamanız için birden fazla doğrulama seçeneği bulunmaktadır. Google, sitenin sizin kontrolünüzde olduğunu doğrulamak adına aşağıdaki doğrulama seçeneklerinden birini yapmanızı zorunlu tutmaktadır:

  1. HTML dosyası ile doğrulama,
  2. HTML etiketi ile doğrulama,
  3. Google Analytics ile doğrulama,
  4. Google Tag Manager ile doğrulama,
  5. DNS üzerinden TXT veya CNAME kaydı ile doğrulama.

google-search-console-dogrulama-yontemleri

Yukarıdaki doğrulama seçeneklerinden birini tercih ederek doğrulamanızı gerçekleştirebilir ve URL ön eki olarak kaydettiğiniz mülkünüzü kullanmaya başlayabilirsiniz.

Not: Bir Search Console mülkünü (alan adı veya URL ön eki) ilk defa oluşturuyorsanız Search Console ekranında internet sitenizle ilgili veri görmeye başlamanız 3 günü bulabilir.

Search Console Nasıl Kullanılır?

Search Console’da bir internet sitesi için mülk oluşturup doğrulamayı tamamladığınızda, Search Console ana ekranı karşınıza çıkacak ve kullanmaya başlayabileceksiniz. Search Console’da hem performans verilerini görüntülemek hem de sitenizdeki teknik hatalar hakkında bilgi sahibi olabilmek adına birçok farklı sayfada farklı modüller bulunmaktadır. Mülk ekleme ve internet sitesi sahipliği doğrulama aşamaları sonrasında Search Console veri toplamaya başlar ve birkaç gün içerisinde internet sitenizle ilgili çeşitli veriler size sunulmaya başlar.

Search Console Menüleri ve Kullanımı

Aşağıda başlıklar halinde ayrılmış şekilde Search Console sayfalarında hangi modüllerin yer aldığını görüntüleyebilir ve kullanımları hakkında bilgi sahibi olabilirsiniz.

Önizleme

Önizleme sekmesi, Search Console’da sitenizin mülkünü açtığınızda sizi karşılayan ekrandır. Bu bölümde tüm sayfalarda yer alan içeriğin bir özetini görmeniz mümkündür. Önizleme sayfasında Performans, Dizin, Deneyim ve Geliştirmeler şeklinde 4 ana başlık altında sitenize dair verileri hızlı şekilde görüntüleyebilirsiniz.

Önizleme sayfasında listelenen bu bölümlerdeki verilerin detayına ister yanlarında bulunan butonlar yardımıyla, isterseniz de sol menüden kendi sayfalarına geçiş yaparak ulaşabilirsiniz.

URL Denetimi

URL Denetimi Aracı, bir URL’iniz hakkında Google dizininden bilgi almanıza olanak sağlayan bir araçtır. Sitenizdeki bir URL’in Googlebot tarafından tarandığındaki kaynak kodlarını, son taranma zamanını, URL’in nereden keşfedildiğini, taramaya izin verilip verilmediğini, indekslenmeye izin verilip verilmediğini, ilgili URL tarandığında Googlebot’un tercih ettiği URL’i, URL’in mobil kullanılabilirlik uyumluluğunu ve URL’de kullanılan Schema Yapısal Veri İşaretlemeleri’ni görüntülemeniz mümkündür.

search-console-URL-denetimi

URL Denetim Aracı’nda bir URL’inizle ilgili Google dizininden veri almak yerine URL’iniz hakkında anlık bir istek atarak da Googlebot’tan güncel veri elde edebilirsiniz. Bunun için URL’inizi URL Denetimi’nde analiz ettikten sonra, sağ üstte bulunan “Canlı URL’yi Test Et” butonuna tıklamanız ve bir süre beklemeniz gerekmektedir. Bu esnada Googlebot tarafından URL’inize canlı bir istek gönderilecek ve sonuç ekranında Googlebot’un o an aldığı verileri görüntülemeniz mümkün hale gelecektir.

search-console-URL-denetimi-canli-test

Ayrıca test ettiğiniz URL’iniz eğer Google’da indekslenmemişse, sağ kısımda bulunan “Dizine Eklenmesini İste” butonuna tıklayarak URL’iniz için bir indekslenme talebinde bulunabilirsiniz.

Performans

Sitenizin organik trafik verileriyle ilgili detaylı verileri görebileceğiniz Performans sekmesi, maksimum son 16 aylık zaman diliminde elde etmiş olduğunuz organik trafiğe dair detaylı veriler sunar. Performans sekmesi Arama Sonuçları, Keşfet ve Google Haberler olmak üzere 3 ayrı sekmede çeşitli veriler barındırır ve bir rapor ekranında performans verilerinizi gösterir.

Arama Sonuçları

Performans menüsünün ilk alt menüsü olan Arama Sonuçları bölümünde, tüm organik trafiğinize dair performans verileri yer almaktadır.

search-console-performans-raporu

Performans sekmesinde organik trafik verilerinizi segmentlemek için kullanabileceğiniz birçok filtre ve seçenek bulunmaktadır. Arama Türü (Search Type), Tarih (Date), Sorgu (Query), Sayfa (Page), Ülke (Country), Cihaz (Device) ve Arama Görünümü (Search Appearance) gibi filtreleri kullanarak organik trafik verilerinizi dilediğiniz gibi detaylandırabilir ve inceleyebilirsiniz. Ayrıca Performans sayfasında sağ üstte yer alan “Dışa Aktar (Export)” butonuyla birlikte verilerinizi Excel, CSV veya Google Sheets’e aktarabilirsiniz.

search-console-performans-raporu-2

Performans sayfasında sitenizin Tıklama (Click), Gösterim (Impression), Ortalama TO (CTR) ve Ortalama Konum (Average Position) gibi organik trafik verilerini tarihsel olarak görüntüleyebilirsiniz. Bu verilerin yer aldığı çizgi grafiğinin hemen alt bölümünde ise organik trafiğinizin arama sorgusu, sayfa, ülke, cihaz, arama görünümü ve tarih bazında detaylandırılmış verilerini inceleyebilirsiniz.

Keşfet

Keşfet bölümü, internet sitenizin Google Discover’da göstermiş olduğu performansa dair veriler gösteren bir raporlama alanıdır. Eğer internet sitenizde hiçbir URL’iniz Google Discover’da yer alamadıysa, bu rapor sizin için oluşmayacak ve Search Console’da Keşfet sekmesini göremeyeceksiniz.

search-console-kesfet-google-discover-performans-raporu

Keşfet raporlama ekranında tıpkı ana raporlama ekranında olduğu gibi edinmiş olduğunuz Impression & Click verileri detaylı şekilde listelenecektir. Keşfet raporunda da kullanabileceğiniz çeşitli filtreler bulunmaktadır ve bu sayede verilerinizi segmentleyerek incelemeniz mümkün hale gelmektedir.

Google Haberler

Google Haberler bölümü, internet siteniz eğer Google News’e kayıtlıysa ve Google News üzerinden Impression & Click elde ediyorsa ulaşabileceğiniz bir raporlama ekranıdır. Eğer internet sitenizin Google News kaydı bulunmuyor ve Google Haberler üzerinden bir Impression & Click elde etmiyorsanız, Search Console’da Google Haberler bölümü sizin için sunulmayacaktır.

search-console-google-haberler-performans-raporu

Google Haberler raporlama ekranında çeşitli filtreler kullanımınız için uygundur ve bu sayede Google Haberler üzerinden elde ettiğiniz organik trafiği segmentlere ayırarak daha detaylı şekilde incelemeniz mümkündür.

Dizin

Dizin bölümü, Search Console’da sitenizdeki tüm URL’lerinizle ilgili taranabilirlik, indekslenebilirlik ve ulaşılabilirlik anlamında çeşitli veriler görebileceğiniz bir alandır. Genel olarak Googlebot’un sitenize gerçekleştirdiği taramalarda URL’lerinizle ilgili karşılaştığı tarama & indeksleme problemlerini bu alanda bulabilirsiniz.

Sayfa Sayısı

Sayfa Sayısı ekranı, sitenizdeki URL’lerinizin taranabilirlik ve indekslenebilirlik durumlarıyla ilgili çeşitli veriler sunan bir ekrandır. URL’lerinizin Googlebot tarafından taranıp taranmadığını ve indekslenip indekslenmediğini bu bölümde görüntüleyebilirsiniz.

search-console-sayfa-sayisi

Ayrıca URL’lerinizin neden taranmadığını veya neden indekslenmediğini de bu ekran üzerinde size sunulan sebeplerde görmeniz mümkündür. Ek olarak da indekslenen URL’lerinizle ilgili verileri de görüntüleyebilirsiniz.

Video Sayfaları

Video Sayfaları raporu, sayfalarınıza eklenmiş olan videoların Google’da indekslenme durumunu gösteren bir rapordur. “Dizine eklenmiş video yok” ve “Video dizine eklendi” şeklinde iki ayrı grupta sayfalarınızdaki videoların indekslenip indekslenmediğini kontrol etmeniz mümkündür.

search-console-video-sayfalari-raporu

Google’da indekslenmeyen videoların neden dizine eklenmediğine dair sebepleri de alt bölümde listelenmiş şekilde inceleyebilirsiniz. Listede yer alan sebeplere tıkladığınızda bu sebeplerden hangi URL’lerinizin ve videolarınızın etkilendiğini görmeniz mümkündür.

Site Haritaları

Site Haritaları, internet sitenizde kullanmakta olduğunuz site haritalarını listeyen bölümdür. Site Haritaları bölümünde sitenizdeki aktif site haritalarının URL’lerini bu sayfadaki ilgili alana yazarak Google’a gönderebilirsiniz. Site haritalarınızı gönderdikten kısa bir süre sonra alt bölümde göndermiş olduğunuz site haritaları gönderilme tarihi, Googlebot tarafından son okunma tarihi, durumu ve keşfedilen URL sayısı bilgileriyle listelenecektir.

search-console-site-haritalari-raporu

Bir site haritanızda hata olması durumunda ilgili alanda Durum bölümünde Hata olarak uyarı görünecektir. Hatalı site haritanızın URL’ine tıklayarak site haritanızda yaşanan sorunun detaylarını görüntülemeniz mümkündür.

URL Kaldırma

URL Kaldırma Aracı, Google’da listelenmesini istemediğiniz URL’leriniz için kaldırma isteği gönderebileceğiniz bir bölümdür. Burada eğer varsa daha önceden göndermiş olduğunuz URL kaldırma isteklerini görüntüleyebilir veya bir URL’iniz için kaldırma isteğinde bulunabilirsiniz. URL Kaldırma bölümünde “Geçici Olarak Kaldırmalar“, “Eski İçerik” ve “Güvenli Arama Filtrelemesi” adlarında 3 ayrı sekme bulunmaktadır. Bu sekmeler yardımıyla bir URL’i geçici olarak kaldırmanız veya Google önbelleğine alınmış URL’iniz için yenileme isteğinde bulunmanız mümkündür.

search-console-url-kaldirma-araci

Güvenli Arama Filtrelemesi sekmesi, Google’ın güvenli arama politikalarına uyumlu olmayan URL’lerin Google tarafından otomatik olarak arama sonuçlarından çıkarılması durumunda bu alanda listelenir.

Deneyim

Deneyim bölümü, internet sitenizdeki kullanılabilirlik deneyimi hakkında çeşitli raporları barındıran bir bölümdür. Sayfa Deneyimi, Önemli Web Verileri ve Mobil Kullanılabilirlik gibi çeşitli detaylar sununan bu raporlarda, internet sitenizdeki kullanım deneyimine dair verileri görüntüleyebilirsiniz.

Sayfa Deneyimi

Sayfa Deneyimi bölümünde internet sitenizin hem mobil hem de masaüstü sürümünde tespit edilen Core Web Vitals sorunları, Mobil Kullanılabilirlik problemleri ve HTTPS protokolü kullanım sorunları listelenir.

search-console-sayfa-deneyimi-raporu

Mobil ve Masaüstü olarak ayrılan bu alanda, 3 kategoride de geçer not alan URL’leriniz “İyi URL” olarak gruplandırılır ve sitenizdeki tüm URL’lere göre yüzdesi bir çizgi grafiğinde gösterilir. Ayrıca iyi URL statüsü kazanan URL’lerinizin elde etmiş olduğu toplam Impression miktarı da bu grafikte gösterilmektedir.

Önemli Web Verileri

Önemli Web Verileri bölümü, internet sitenizin mobil ve masaüstünde göstermiş olduğu Core Web Vitals uyumluluğuna dair rapor sunar. URL’lerinizde yapılan kontrollerde sayfalarınızın FCP, LCP, CLS ve FID gibi metriklere uygunluğu bu bölümde mobil ve masaüstü olarak ayrı ayrı listelenmektedir.

search-console-onemli-web-verileri-raporu

İdeal seviyelerde olmayan ve geçerli olarak işaretlenmeyen URL’lerinizi bu rapor üzerinde gruplanmış şekilde görüntüleyebilir ve aynı sorunu yaşayan benzer URL’lerinizi tespit ederek bu yönde optimizasyon yapabilirsiniz.

Mobil Kullanılabilirlik

Mobil Kullanılabilirlik bölümü, sitenizdeki tüm URL’lerinizdeki mobil uyumluluk durumunun kontrol edilmesiyle oluşan sonucu raporlar. Sitenizde hangi URL’lerinizin mobil uyumlu olmadığını ve mobil uyumluluk anlamında hangi sorunların tespit edildiğini görüntülemek için Mobil Kullanılabilirlik bölümünü kullanabilirsiniz.

search-console-mobil-kullanilabilirlik-raporu

Ayrıca mobil uyumluluk sağlayamayan URL’lerinize tıkladığınızda açılan sağ panelde ilgili URL’in en son taranan tarihteki mobil uyumluluk durumu gösterilir. Burada yer alan “Canlı Sayfayı Test Et” butonuyla da anlık bir kontrol yapılması mümkündür.

Geliştirmeler

Geliştirmeler bölümü, internet sitenizde eğer kullanıyorsanız AMP ve Yapısal Veri İşaretlemeleri gibi çeşitli yapılara dair raporlamalar sunar. AMP kullanan sitelerde yapısal olarak AMP uygunluğu olan ve olmayan URL’ler, uygunluğu olmayan URL’lerde yaşanan AMP sorunları ve hatalar görüntülenebilir. Ayrıca kullanılan çeşitli Yapısal Veri İşaretlemeleri’ne dair detaylar ve tespit edilen hatalar bu bölümde listelenir.

Geliştirmeler bölümünde internet sitenizde tespit edilen Breadcrumbs, Product, FAQ ve Video gibi çeşitli Yapısal Veri İşaretlemeleri’ne dair detaylar sunulmaktadır.

Güvenlik ve Manuel İşlemler

Güvenlik ve Manuel İşlemler bölümünde, internet sitenizin olası bir Google cezası tarafından cezalandırılıp cezalandırılmadığını görüntüleyebilir ve Manuel İşlemler bölümünde bir ceza bildirimi varsa bu cezaya dair detayları ve çözüm sonrasında Google’a bildirme alanını görebilirsiniz. Güvenlik Sorunları bölümünde ise internet sitenizin zararlı bir kod barındırıp barındırmadığını kontrol edebilirsiniz. Özellikle hack’lenen sitelerle ilgili bu bölümde zararlı yazılıma dair detaylar listelenir.

Manuel İşlemler

Google’ın algoritmalar yerine gerçek insanlar ile yaptığı kontroller sonucunda internet sitenizde web yöneticisi kalite yönergelerine uymayan bir durum tespit edildiğinde bu Manuel İşlem olarak işaretlenir ve Search Console üzerinden size iletilir. Manuel İşlemler üzerinden cezalandırma alan bir sitenin bir kısmı veya tamamı Google arama sonuçlarının dışında tutulur ve kullanıcılara sunulmaz.

search-console-manuel-islemler

Bir manuel işlem durumunu çözüme kavuşturduktan sonra Search Console’daki bu alandan Google’a sorunun çözüldüğüne dair bir inceleme talebi gönderilebilir. İnceleme talebi sonrasında Google ekibi, manuel işleme sebep olan problemlerin giderilip giderilmediğini kontrol eder ve eğer herhangi bir sorun kalmamışsa uygulanan manuel işlem kaldırılır.

Manuel işlemler listesine yandaki bağlantıdan ulaşabilirsiniz: https://support.google.com/webmasters/answer/9044175?hl=tr

Güvenlik Sorunları

İnternet sitenizde herhangi bir zararlı yazılım tespit edilmesi durumunda Güvenlik Sorunları sekmesinde yaşanan bu soruna dair detaylı bilgi listelenmektedir. Özellikle saldırıya uğramış veya ele geçirilmiş web sitelerinde karşılaşılan zararlı yazılımlara dair detaylar, etkilenen URL’ler burada listelenir.

search-console-guvenlik-sorunlari

Güvenlik Sorunları sayfasında tespit edilen toplam güvenlik problemi sayısını ve alt bölümde de tespit edilen zararlı durumların detayları ayrı ayrı sekmelerde görüntüleyebilirsiniz. İnternet sitenizde tespit edilen zararlı yazılımları ve sayfaları temizledikten sonra Google’ın tekrar incelemesi için bir değerlendirme isteği gönderebilirsiniz.

Eski Araçlar ve Raporlar

Uluslararası Hedefleme

Özellikle çok dilli siteler için kullanılan Uluslarası Hedefleme bölümü, farklı dillerdeki sayfaların hedeflenecek dil ve bölgelere göre ayarlanmasına ve bu konuda Google’a direktifler gönderilmesine yardımcı olur.

search-console-uluslararasi-hedefleme-bolumu

Ayrıca bu bölümde kullanmış olduğunuz hreflang kodlarının durumunu da görüntüleyebilirsiniz. Buradaki rapor, geçerli olan hreflang etiketlerinin sayısını, hatalı olan hreflang etiketlerinin sayısını ve hreflang etiketi kullanımında tespit edilen hataları sunmaktadır. Uluslarası Hedefleme bölümünde yapılacak ayarlamalar oldukça kritiktir ve bilinçli & doğru şekilde yapılmadığı takdirde farklı dillerdeki içeriklerinizin yanlış dil ve bölgeye hedeflenmesine neden olabilir.

Not: Uluslararası Hedefleme bölümü kullanımdan kaldırılmıştır ve 22 Eylül 2022 tarihinde tamamen erişime kapatılacaktır. Google, hreflang etiketlerini desteklemeye ve kullanmaya devam edecektir.

Web Araçları

Web Araçları menüsüne tıklandığında yeni bir sekmede Web Araçları bölümü açılır ve bu bölümde hem Masaüstü hem de Mobil için Reklam Deneyimi Raporu, Kötüye Kullanım Deneyimleri ve Kötüye Kullanım Bildirimleri gibi sekmeler görünür.

search-console-web-araclari-bolumu

Bu sekmeleri kullanarak web sitenizin reklam yayınlama standartlarını ihlal edip etmediğini, kötüye kullanım durumuna karşı uyumluluğunuzu ve daha önceden sitenizle ilgili oluşan kötüye kullanım durumlarını görüntülemeniz mümkündür.

Bağlantılar

Bağlantılar bölümü, internet sitenizdeki iç bağlantılara ve dışarıdan gelen bağlantılara (backlink) dair detayları görüntüleyebileceğiniz bir ekrandır. Dış bağlantılar bölümünde Search Console’a yansıyan toplam backlink sayınız listelenir ve hemen altında da en çok dış bağlantıya sahip olan sayfalarınız listelenir. Sayfalarınıza tıklayarak hangi kaynaklardan dış bağlantılar geldiğini görüntülemeniz mümkündür. Hemen alt kısımda bulunan ikinci bölümde de gelen dış bağlantıların hangi sitelerden geldiğini liste halinde görüntüleyebilirsiniz. Son olarak da en alt bölümde yer alan kısımda gelen dış bağlantıların hangi metinler (anchor text) üzerinden geldiğini inceleyebilirsiniz.

search-console-baglantilar-raporu

Sağ bölümde yer alan iç bağlantılar alanında ise site içerisindeki link inşanıza göre iç bağlantı akışını yüzeysel olarak görüntülemeniz mümkündür. Bu alanda en çok iç bağlantıya sahip olan sayfalarınız sırasıyla listelenir ve bir URL’in üzerine tıkladığınızda da hangi sayfalarınızdan bağlantı geldiğini inceleyebilirsiniz.

Ayarlar

Ayarlar sayfası, Search Console’daki mülkünüze dair çeşitli ayarların yer aldığı bir ekrandır. Bu bölümde Genel Ayarlar, Tarama ve Hakkında şeklinde 3 ana başlıkta çeşitli sekmeler bulunmaktadır. Genel Ayarlar başlığı altındaki Sahipliği doğrulama sekmesi, Search Console mülkündeki sahipliğinizin geçerliliğini görüntüleyebileceğiniz bölümdür.

search-console-ayarlar-bolumu

İkinci seçenekte yer alan Kullanıcılar ve İzinler bölümü, ilgili Search Console mülküne erişimi olan kullanıcıları ve erişim düzeylerini göstermektedir. Bu alanda yeni kullanıcı ekleyebilir, mülk erişimi olan bir kullanıcının düzeyini düşürebilir veya mülk erişimini kaldırabilirsiniz.

Tarama İstatistikleri

Tarama İstatistikleri bölümü, Googlebot’un internet sitenize yaptığı tarama işlemleriyle ilgili detayların sunulduğu alandır. Bu bölümde Googlebot’un son 90 günde internet sitenize atmış olduğu toplam tarama isteği miktarını, taramalarda yaptığı toplam indirme boyutunu, yapılan taramalarda sunucunuzun ortalama yanıt süresini, hangi URL’lerinize tarama gerçekleştirdiğini, taramanın ne zaman gerçekleştiğini, tarama sonucunda Googlebot’un sayfanızdan aldığı HTTP yanıtını ve daha birçok veriyi bu bölümde farklı farklı gruplara ayrılmış şekilde görüntüleyebilirsiniz.

search-console-tarama-istatistikleri-raporu

Özellikle hangi URL’lerinizin ne sıklıkta tarandığını ve taranan URL’lerinizden alınan yanıtların incelemesini yapmanız açısından Tarama İstatistikleri raporu oldukça verimli bir bölümdür. SEO çalışmaları kapsamında sunucu log’ları kullanılarak yapılan log analizi çalışmasına çok yakın bir analiz bu ekran üzerinden de yapılabilir.

Yararlı Bağlantılar

 

Dijital Pazarlama Ajansı olarak, markanızın başarılı bir büyüme yolculuğuna çıkması için Boosmart’ın eşsiz pazarlama zekası çözümlerini sunuyoruz. İşletmenizin hedeflerini ve ihtiyaçlarını anlayarak, özelleştirilmiş pazarlama stratejileri oluşturmak için gelişmiş teknolojileri kullanıyoruz.
Boosmart’ın pazarlama zekası çözümleri, markanızın dijital varlığını optimize etmek, hedef kitlenizi daha iyi anlamak ve etkili bir şekilde pazarlama faaliyetlerinizi yönetmek için tasarlanmıştır. Sektördeki en son trendleri takip ediyor ve veri analitiği, yapay zeka ve otomasyon gibi güçlü araçları kullanarak markanızın büyümesini destekliyoruz.

 

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart

Algoritmalar 23 Ağustos 2022

Google Helpful Content Update Nedir? (Faydalı İçerik Güncellemesi)

Erhan Kolci

Helpful Content Update (Faydalı İçerik Güncellemesi) Nedir?

Google, Search Central Twitter hesabından 18 Ağustos 2022 tarihinde Helpful Content Update (Faydalı İçerik Güncellemesi) adında bir algoritma geliştirdiğini duyurdu.

google-helpful-content-update-tweet

Duyuruyla birlikte pek çok SEO uzmanı yaşanan bu gelişme için oldukça umutlu durumda. Kimisi ise bu zamana kadar geliştirilen içerik algoritmalarına rağmen sıralamada olumsuz etki görmeyen sitelerin sayısının fazla olmasından dolayı pek de umutlu değil. Bu güncellemenin duyurulmasıyla birlikte henüz etkilerine yönelik net detaylar ortaya çıkmadığı için arama yapacakları konu itibariyle faydalı bilgiye ulaşmak isteyen kullanıcıların sevinçten gözleri ışıldarken, otomatik, duplicate, faydasız ve değersiz içerikleri olan siteler ise kara kara düşünmeye başlamış olabilir 🙂

Helpful Content Update, özetle ziyaretçilerin sitede iyi bir deneyim yaşadığı içerikleri daha iyi ödüllendirmeyi amaçlarken, ziyaretçinin beklentilerini karşılamayan içeriklerin de organik olarak iyi performans göstermeyeceğini amaçlayan bir güncellemedir.

Bu durumu bize gelecek gösterecek tabi ki, ama biraz önce de bahsettiğim gibi geçmişte Google içeriksel anlamda algoritma güncellemeleri yapmıştı. Peki Google geçtiğimiz yıllarda içeriklere yönelik Panda algoritmasını geliştirmemiş miydi? Bu durumda Helpful Content Algoritması neden geliştirildi? Şimdi detaylara göz atalım.

Panda Algoritması vs Helpful Content Algoritması

Panda, ilk olarak 2011 yılının Mayıs ayında duyuruldu. Panda’nın geliştirilme sebebi büyük ölçüde o dönem yapılan yoğun content farm’dan dolayı oluşan faydasız, yetersiz, spekülatif, duplicate ve black hat tekniklerle oluşturulan contentlerden kaynaklıydı. Bu süreçte Google, Matt Cutts önderliğinde faydasız içerikler sunan sitelere deyim yerindeyse savaş ilan etmiş, Panda algoritmasını 2015 yılına kadar güncellemeyi sürdürmüştü.

 

 

İrili ufaklı pek çok içeriksel algoritma güncellemesi ile birlikte en son Panda’nın, 4.2 update sonrası core update’lere dahil edilerek geliştirileceği belirtilmiş ve sonrasında da E-A-T ve YMYL kavramları hayatımıza girmişti. Content değerlendirme sinyalleri her core update ile çok daha fazla iyileştirilerek devam etmişti.

Hafif bir geçmişi yâd ettikten sonra günümüze geri geldiğimizde, bu geliştirmelerin halen devam ettiğini Helpful Content Update ile gözlemliyoruz.

Helpful Content Update aslında Panda algoritmasında ele alınan sinyallerle birlikte günümüz şartlarında AI ile oluşturulmuş otomatize içerikleri de tespit edeceğini iddia eden bir algoritma olarak görünüyor. Esas çıkış noktası ise sadece arama motoru botları için oluşturulmuş olan içerikler olduğu belirtiliyor.

18 Ağustos 2022’de duyurulduktan sonra yaklaşık 2 hafta içerisinde tamamlanarak önce İngilizce içeriklerde, sonra da diğer dillerde uygulamaya geçeceği açıklandı.

Tam anlamıyla kullanıma sunulduğunda algoritma duyuru sayfasından açıklanacağı belirtildi.

Helpful Content Update İçin Dikkat Edilmesi Gerekenler

Mevcut içeriklerinizdeki sorunlardan kaynaklı trafik kaybı yaşıyorsanız ya da içerik oluştururken dikkat etmeniz gerekenleri bilmiyorsanız Google’nin Helpful Content Update sayfasında da belirttiği bazı soruları içeriğe yöneltmeli ve cevap aramalısınız. Bunlardan bazıları aşağıdaki şekildedir;

 

  • İçeriğiniz insanlar için değil, öncelikle arama motorlarından insanları çekmek için mi?
  • Bazılarının arama sonuçlarında iyi performans göstermesini umarak farklı konularda çok sayıda içerik mi üretiyorsunuz?
  • Birçok konuda içerik üretmek için kapsamlı otomasyon kullanıyor musunuz?
  • Başkalarının söyleyeceklerini fazla değer katmadan özetliyor musunuz?
  • Bir şeyler hakkında sadece trend göründükleri için mi yazıyorsunuz, yoksa onlar hakkında mevcut hedef kitleniz için yazacağınız için değil mi?
  • İçeriğiniz, okuyuculara diğer kaynaklardan daha iyi bilgi almak için tekrar arama yapmaları gerektiği hissini veriyor mu?

 

gibi sorulara içeriğinizde bulacağınız yanıtlar, size sıralama anlamında içeriğiniz için olumlu/olumsuz fikirler verebilir. Buna göre de hazırlanan içeriğinizi revize etmelisiniz ya da içeriğinizi buna göre oluşturmalısınız.

Öncelikle bu algoritma güncellemesinin tamamen oturması ve tüm arama sonuçlarında uygulanması bir hayli zaman alabilir. Fakat unutulmaması gereken bir şey var ki, o da Helpful Content algoritmasının artık hayatımızda olacağıdır.

Google, önümüzdeki dönemde Helpful Content algoritması için machine learning ile faydalı ve faydasız içeriği ayırabileceğini, machine learning geliştirmeleri ile birlikte algoritmaya yönelik sinyallerin daha sıkı denetleneceğine dair bilgiler de paylaştı.

Tabi ki tüm bunlar arama kalitesinin iyileştirilmesine yönelik update’ler olduğu için gelecekte önemi artarak devam edecek ve bu doğrultuda geliştirilecektir. Bu nedenle algoritmanın açıklarının aranarak algoritmaya aykırı içeriklerin üretilmesi zaman kaybı olacaktır ve bu yönde kesinlikle efor sarf edilmemelidir.

Özellikle son dönemde position ve trafikleriniz düşüşteyse dönemsel/sezonsal bir sorun olmadığı durumda içeriksel anlamda problemler olmuş olabilir. Bu algoritma sektöre özel değil genele özel bir update olduğu için bazı dikkat etmeniz ve gözden kaçırdığınız konulara dönüp tekrar gözden geçirmek avantajlı olabilir.

 

  • Kesinlikle genel site içeriğinden alakasız bir içerik üretilmemeli. İçerikler ürün/hizmetlerle alakalı olmalı.
  • Sadece arama motoru botları için değil, ağırlıklı olarak kullanıcılara yönelik hedeflemelerle içerikler üretilmeli.
  • Yanıtı olmayan ya da aranan yanıtın sırf trafik çekme amaçlı kelime kalabalığı arasında kaybolmuş içeriklerden kaçınılmalı.
  • E-A-T kriterleri göz ardı edilmemeli, aksine çok daha fazla önem verilmeli.
  • Oluşturulacak faydalı içeriklerle ve alakalı konu içeriklerinden kategorilere yönelik iç linkleme yapılarak kategori otoriteleri arttırılmalı.
  • İçerikler oluşturulurken makale sayısına çok fazla takılıp kalınmamalı. Bir konu kaç kelime ile anlatılırsa optimum seviyede anlatılmalı, sırf makaleyi uzatmak için gereksiz kelime kullanımlarından kaçınılmalı.

 

Helpful Content Update, diğer geliştirilmiş içerik bazlı algoritma güncellemelerinin devamı olduğu için haliyle diğer güncellemeler arasında en gelişmiş update olarak görünmekte olup, tamamen kullanıma sunulduğunda geçmiş içeriklerinizi de etkileyebilir. Bu nedenle içerik kaynaklı kayıp yaşadığınızı düşündüğünüz sayfaları Google’nin yönergeleri doğrultusunda tekrar gözden geçirmeniz faydalı olur ve sitenizi algoritmaya hazırlamış olmanızı da sağlayabilir.

 

Ek Kaynaklar

 

Dijital Pazarlama Ajansı olarak, markanızın başarılı bir büyüme yolculuğuna çıkması için Boosmart’ın eşsiz pazarlama zekası çözümlerini sunuyoruz. İşletmenizin hedeflerini ve ihtiyaçlarını anlayarak, özelleştirilmiş pazarlama stratejileri oluşturmak için gelişmiş teknolojileri kullanıyoruz.
Boosmart’ın pazarlama zekası çözümleri, markanızın dijital varlığını optimize etmek, hedef kitlenizi daha iyi anlamak ve etkili bir şekilde pazarlama faaliyetlerinizi yönetmek için tasarlanmıştır. Sektördeki en son trendleri takip ediyor ve veri analitiği, yapay zeka ve otomasyon gibi güçlü araçları kullanarak markanızın büyümesini destekliyoruz.

 

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

 

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

 

Telegram kanalımıza abone olun;

https://t.me/boosmart

SEO 30 Nisan 2022

Screaming Frog Nedir ve Nasıl Kullanılır? Kapsamlı Screaming Frog Rehberi

Anıl Zengin

Screaming Frog SEO Spider, SEO çalışmalarında kullanılan tarama (crawling) araçları arasında yüksek popülerliği olan ve her SEO uzmanının en az bir kere kullandığı bir araçtır. Ücretsiz ve premium olarak iki farklı seçeneği bulunan Screaming Frog aracı, bir internet sitesini tamamen tarayarak tüm hatalarını tespit etmenize olanak sağlar. Hazırladığım bu rehberde Screaming Frog’a dair tüm merak ettiklerinizi, Screaming Frog’daki tüm bölümleri ve anlamlarını, Screaming Frog’un nasıl kullanıldığını ve bir internet sitesinin SEO hatalarının Screaming Frog ile nasıl tespit edildiğini derledim.

Screaming Frog SEO Spider Nedir?

Screaming Frog SEO Spider, 2010 yılında Dan Sharp tarafından kurulan Screaming Frog şirketi tarafından geliştirilen bir SEO crawling aracıdır. Aracın adı her ne kadar Screaming Frog SEO Spider olsa da, internet ve SEO sektöründe “Screaming Frog” adıyla özleşmiştir. Screaming Frog aracının sınırlı sayıda URL taramanıza izin veren ücretsiz bir sürümü ve sınırsız tarama yapabileceğiniz bir premium sürümü bulunmaktadır.

Rakiplerinden (DeepCrawl, JetOctopus, OnCrawl) farklı olarak bulut tabanlı bir web uygulaması değil, Java tabanlı bir yazılımdır. Yani Screaming Frog’u bilgisayarınıza bir program olarak yükleyip kullanabilirsiniz. Günümüzde Screaming Frog toplamda 100 binden fazla indirmeye sahiptir ve SEO sektöründe her SEO uzmanının en az 1 kere kullandığı bir araçtır.

Screaming Frog İndirme ve Kurulumu Nasıl Yapılır?

Screaming Frog yazılımını kullanmak için ilk önce cihazınıza uygun versiyonunu (Windows, Mac veya Ubuntu) https://www.screamingfrog.co.uk/seo-spider/#download adresinden seçerek indirmeniz gerekmektedir. Bilgisayarınıza inen kurulum dosyasını çalıştırdığınızda kurulum aşamalarını tamamlamanız gerekmektedir. Sonrasında kurulum tamamlanacak ve bilgisayarınızda Screaming Frog kullanılabilir durumda olacak.

Screaming Frog’u ilk çalıştırdığınızda karşınıza bu ekran gelecek ve bir lisansınız yoksa, maksimum 500 URL tarama limiti olacak şekilde bir internet sitesi için tarama gerçekleştirebileceksiniz.

Screaming Frog Lisansı Satın Alma ve Etkinleştirme

Eğer ücretsiz sürümü kullanmak yerine bir lisans satın alarak sınırsız sayıda URL için tarama yapmak isterseniz, öncelikle https://www.screamingfrog.co.uk/seo-spider/licence/ adresinden bir lisans satın almanız gerekmekte. Bir lisans sahibi olduktan sonra, Screaming Frog yazılımını açarak üst menüde bulunan “Licence > Enter Licence” bölümünden lisansınızı etkinleştirmeniz gerekiyor.

screaming-frog-lisan-etkinlestirme

Burada açılan pencerede sizden istenen “Username” ve “Licence Key” gibi lisans bilgilerinizi girerek “OK” butonuna basmanızla birlikte girdiğiniz bilgilerde bir problem yoksa, lisansınızın geçerlilik süresi ve Screaming Frog yazılımının yeniden başlatıldıktan sonra lisanslı olarak kullanıma hazır olduğu bilgisi görünecektir. Bu aşamadan sonra yapmanız gereken tek şey Screaming Frog’u kapatıp yeniden başlatmaktır.

Screaming Frog Sistem Ayarları Nelerdir ve Nasıl Yapılır?

Screaming Frog’daki üst menüde bulunan Configuration menüsünde, System bölümü altında Screaming Frog yazılımının genel ayarları diyebileceğimiz bölüm bulunmaktadır. Burada sırasıyla Memory Allocation, Storage Mode, Proxy, Embedded Browser ve Language seçenekleri bulunur. Bu seçenekler yardımıyla Screaming Frog yazılımının çalışma biçimini özelleştirebilirsiniz. Aşağıda bu ayarlar hakkında bilgilendirme bulunmaktadır.

Memory Allocation

Screaming Frog SEO Spider, başlangıçta ne kadar bellek ayrılması gerektiği hesaplamasında Java’yı kullanır. Screaming Frog’da varsayılan olarak 32 bit için 1 GB ve 64 bit makineler için 2 GB’a izin verilir. Eğer buradaki RAM miktarını özelleştirerek artırırsanız, ayrılan bellek miktarının artmasıyla birlikte özellikle RAM modundayken ve aynı zamanda veritabanına kaydederken daha fazla URL’yi taramanız sağlayacaktır.

screaming-frog-memory-allocation

Özellikle çok yüksek sayıda URL’e sahip internet sitelerini Screaming Frog ile tararken, buradaki bellek miktarının artırılması ve yüksek belleğe sahip bir bilgisayar üzerinden tarama gerçekleştirilmesi büyük önem arz eder. Bu hem tüm URL’leri tarayabilme gücünüz olması hem de URL’lerin daha kısa sürelerde taranabilmesi anlamına gelir.

Storage Mode

Storage Mode, Screaming Frog’un tarama verilerini depolama ve işleme konusunda hangi kaynağı kullanacağını seçmenizi sağlayan bir ayardır. Screaming Frog’daki bu ayarda Memory Storage ve Database Storage seçenekleri yer almaktadır. Memory Storage ayarında tüm veriler RAM’e depolanırken, Database Storage ayarında da HDD/SSD üzerinde depolama sağlanır.

Memory Storage

Storage Mode ayarında bu mod seçildiğinde, Screaming Frog taramasındaki tüm verilerin depolanması ve işlenmesi RAM tarafından yapılır. Screaming Frog, varsayılan ayarlarında tarama verilerini depolamak ve işleyebilmek için RAM kullanımı yapar. RAM kullanımıyla birlikte hız ve esneklik gibi faydalar sağlanabilir.

Memory Storage modu, 500 binden az sayıda URL’e sahip olan internet sitelerinin taranması ve RAM miktarı yüksek olan makinelerde kullanılması önerilen bir moddur.
screaming-frog-storage-mode

Database Storage

Storage Mode ayarında bu mod seçildiğinde, Screaming Frog taramasındaki tüm verilerin depolanması ve işlenmesi HDD ya da SSD tarafından yapılır. Eğer hızlı bir SSD sahibiyseniz, taramalarınızı Database Storage üzerinden gerçekleştirmeniz avantajlı olabilir. Database Storage modu, daha büyük ölçekte URL’e sahip olan sitelerin taranmasında, büyük tarama dosyalarının hızlı şekilde işlenip açılmasında, önceki tarama dosyalarıyla karşılaştırmalarda ve değişiklik algılama özelliklerinin kullanılmasında önerilir. Ayrıca Database Storage modu etkinken, yanlışlıkla temizlenen taramalar, menüde yer alan File > Crawls bölümüyle geri getirilebilir.
screaming-frog-proxy-configuration

Proxy

Screaming Frog üzerinden gerçekleştireceğiniz taramalarda eğer bir Proxy kullanımı yapmak istiyorsanız, bu bölümü kullanabilirsiniz. Proxy kullanımı için bazı dikkat etmeniz gereken noktalar vardır;

  • Sadece 1 proxy sunucusu kullanılabilir,
  • Proxy ayarı için yaptığınız değişikliklerin etkili olması için Screaming Frog’u yeniden başlatmanız gerekir,
  • Proxy etkinken herhangi bir istisna eklenemez. Ya tüm HTTP/HTTPS trafiği proxy üzerinden gider ya da hiçbiri gitmez,
  • Bazı proxy’ler, form tabanlı kimlik doğrulama kullanarak taramadan önce oturum açma ayrıntılarını girmenizi gerektirebilir.

Language

Language bölümü, Screaming Frog yazılımını hangi dilde kullanacağınızı seçebileceğiniz bir alandı.

screaming-frog-language-configuration

Screaming Frog’da şu anda maalesef Türkçe dil desteği bulunmamakta. Desteklenen diller şu anda Almanca, İngilizce (UK), İspanyolca, Fransızca ve İtalyanca’dır.

Screaming Frog Modları Nelerdir ve Ne İşe Yarar?

Screaming Frog aracında kullanabileceğiniz 4 farklı tarama modu vardır. Bu modlar; Spider, List, SERP ve Compare olarak adlandırılır ve her birinin ayrı işlevleri bulunmaktadır.

screaming-frog-modlari

Aşağıda ayrı ayrı başlıklarla ayrılmış bölümden Screaming Frog’daki bu modların ne amaçla kullanıldığına dair detayları öğrenebilirsiniz.

Spider Modu

Screaming Frog’un Spider modu, bir internet sitesindeki tüm URL’leri keşfederek tarama gerçekleştirdiği yapıdır. Spider modundayken URL alanına yazdığınız internet sitesindeki tüm URL’lere Screaming Frog botları ziyaret yapmaya başlar ve keşfedilen her URL tarama sırasına eklenir. Böylece bir sonraki taranacak URL, Screaming Frog botları tarafından otomatik keşfedilir. Tüm URL’ler keşfedilene ve taranana denk tarama sürer. (Herhangi bir hariç tutma gibi ayar yapılmadığında)

List Modu

Screaming Frog’daki ikinci mod List olarak adlandırılan liste modudur. List modunda, Screaming Frog’a taranacak URL listesini manuel olarak yükleyerek, yapıştırarak veya bir site haritasından indirerek vermeniz gerekmektedir. Bu modda sadece verdiğiniz URL’ler için bir tarama gerçekleştirilir ve URL listenizde olmayan URL’ler keşfedilmez ve taranmaz. Screaming Frog’un List modu sayesinde bir sitedeki sadece bir bölüme ait URL’ler için tarama gerçekleştirmeniz mümkündür.

SERP Modu

SERP modu, internet sitenizdeki URL’lerinizin title ve description metinlerinin Google arama sonuçlarında nasıl göründüğüne dair bilgi edinmenizi sağlar. Buradaki SERP önizlemeleri ile birlikte URL’lerinizdeki title ve description metinlerinin arama sonuçlarında karakter sayısı veya piksel genişliği olarak ideal uzunluklara uyum sağlayıp sağlamadığını inceleyebilirsiniz. Screaming Frog’un SERP modunda herhangi bir tarama işlevi yoktur ve sadece verdiğiniz URL’ler için bir SERP önizlemesi sunulur.

Compare Modu

Screaming Frog’un dördüncü ve son modu olan Compare modu, güncel tarama dosyanızı daha önceden yaptığınız tarama dosyalarınızla kıyaslamanıza olanak sağlar. Bu sayede bir önceki taramanızda keşfedilen hataların yeni taramanızda da karşınıza çıkıp çıkmayacağını veya hatalarınızın ne oranda iyileştiğini görüntülemeniz mümkün olur. Screaming Frog’un Compare modunda tarama dosyalarınız arasındaki farkları “Change Detection” sekmesinden görüntüleyebilirsiniz. Ayrıca arayüzlerde güncel taramanızda artış gösteren hatalar “kırmızı” renkle, düşüş gösteren ve iyileşen sorunlar da “yeşil” olarak renklendirilir. Compare modu, sadece Memory Allocation ayarındaki Database Storage seçeneği etkinken çalışır.

Screaming Frog Menüleri ve Detaylar

Screaming Frog arayüzündeki üst menüde birçok işlem yapabileceğiniz alanlar bulunmaktadır. Sistem ayarlarından Screaming Frog destek ekibine ulaşmaya kadar geniş bir aralığı olan menü üzerinde birçok farklı işlev bulunmaktadır. Screaming Frog menüleriyle ilgili detayları aşağıdaki maddelerde inceleyebilirsiniz.

  • File menüsü, Standart dosya menüsüdür. Screaming Frog’da yeni bir tarama başlatmak, önceki taramalarınızı görüntülemek, son tarama dosyanızı açmak, mevcut taramayı temizlemek ve yapmış olduğunuz taramayı kaydetmek gibi olanaklar sunar.
  • Mode menüsü, Screaming Frog’un sunmuş olduğu 4 mod arasında geçiş yapmanızı sağlayan menüdür.
  • Configuration menüsü, Screaming Frog’da tarama öncesinde yapmak istediğiniz tüm özelleştirmeleri ve gelişmiş ayarları sunan menüdür. Birçok farklı kategoride ayar özelleştirmenize ve taramanızı daha gelişmiş hale çevirmenize yardımcı olacak bağlantılar içerir.
  • Bulk Export menüsü, Screaming Frog arayüzünde ana sekmeler ve alt sekmeler birbiriyle senkronize olarak çalışır ve iki alanda da oluşan verileri tek bir dosya üzerinde olacak şekilde dışa aktarmak için buradaki Bulk Export seçeneklerini kullanabilirsiniz.
  • Reports menüsü, Screaming Frog üzerinden gerçekleştirdiğiniz taramalarla ilgili raporları dışa aktarmanıza olanak sağlar. Birçok farklı kategoride rapor sunulan bu bölümdeki bağlantıları kullanarak dışa aktarma gerçekleştirebilirsiniz.
  • Sitemaps menüsü, Site haritalarıyla ilgili olarak ayar yapmanıza olanak sağlayan bu menü, hem XML Sitemap hem de Image Sitemap olarak iki ayrı bağlantıya sahiptir.
  • Visulations menüsü, Veri görselleştirme tarafında kullanabileceğiniz bu menü, Screaming Frog taraması sonrasında oluşan verileri görselleştirmeye yönelik seçenekler sunar.
  • Crawl Analysis menüsü, Yapmış olduğunuz bir tarama için bir analiz başlatmanıza, başlatılan bir analizi durdurmanıza veya Crawl Analysis özelliğini konfigüre etmenize olanak sağlar.
  • Licence menüsü, Screaming Frog lisansı satın almak veya satın aldığınız bir lisans kodunu etkinleştirmek için kullanabileceğiniz bağlantıları içerir.
  • Help menüsü, Screaming Frog hakkında yaşadığınız sorunlar veya ek ihtiyaçlarınıza yönelik Screaming Frog ekibinin sunduğu dökümantasyonlara erişmenize veya Screaming Frog destek ekibiyle iletişime geçmenize yönelik bağlantılar sunar.

Screaming Frog SEO Spider Nasıl Kullanılır?

Screaming Frog aracını kullanmak için ana ekranda üst bölümde yer alan “Enter URL to spider” alanına tarama yapmak istediğiniz internet sitesinin URL’ini yapıştırmanız ve devamında da “Start” butonuna basarak taramayı başlatmanız gerekmektedir. Start butonuna bastığınız andan itibaren Screaming Frog, belirttiğiniz internet sitesinin tüm URL’lerini ziyaret ederek bir veri kazıma (scrape) işlemine başlayacaktır. Tarama sürecini sağ üstteki yeşil barda yüzdelik olarak ve sağ en altta kalan URL sayısı olarak görüntüleyebilirsiniz.

screaming-frog-site-tarama

Taramak istediğiniz internet sitesinin toplam URL sayısına, sunucu performansına ve bilgisayarınızın performansına göre tarama hızı değişiklik gösterebilmektedir. Güncel tarama hızını, taramayı başlattıktan sonra yazılımın en altında yer alan “Average” ve “Current” bölümlerindeki saniye başına taranan URL sayısı olarak görebilirsiniz.

Yapacağınız bir tarama işlemini daha gelişmiş ve detaylı hale getirebilmek için, taramanızı başlatmadan önce üst menüde yer alan “Configuration” sekmesinden taramanızla ilgili tüm detayları özelleştirebilir ve gelişmiş araçları kullanabilirsiniz. Aşağıda, tarama öncesi gelişmiş konfigürasyonlar hakkında detaylı bilgiler bulunmaktadır.

Tarama Öncesi Uygulanabilecek Gelişmiş Konfigürasyonlar

Screaming Frog’da bir taramaya başlamadan önce yapacağınız taramayı çok daha geniş kapsamlı hale getirebilir ve özel konfigürasyonlarla gelişmiş bir tarama gerçekleştirebilirsiniz. Bunu yapmak için, taramaya başlamadan önce üst menüde yer alan Configuration menüsünde yer alan ayarları kullanabilirsiniz. Menüde yer alan Spider, Content, robots.txt, URL Rewriting, CDNs, Include, Exclude, Speed, User-Agent, HTTP Header, Custom Search, Custom Extraction, Custom Link Positions, Google Analytics API, Search Console API, PageSpeed Insights API, Majestic API, Ahrefs API, Moz API ve Authentication bölümlerinde yapacağınız ek ayarlar ve tercihlerle taramanızı daha kapsamlı yapabilirsiniz. Aşağıda bu alanların ne işe yaradıklarını ve nasıl kullanıldıklarını inceleyebilirsiniz.

Spider

Tarama öncesinde Screaming Frog’un ne kapsamda tarama yapmasını istediğinizi bu alandan yapacağını seçimlerle özelleştirebilirsiniz. Spider menüsüne tıkladığınızda açılan penceredeki “Crawl” alanından örneğin Hreflang etiketlerinin taranmasını isteyip istemediğinizi buradan yapacağınız seçimle belirleyebilirsiniz.

İkinci sekme olan “Extraction” bölümünde taramanızda sayfa içerisinden hariç tutmak istediğiniz bir alan varsa (Page Title, Meta Description, Meta Robots Tags vb.) bunları kaydedebilirsiniz.

Üçüncü sekmede yer alan “Limits” bölümü, yapılacak taramanın sınırlarını belirler. Bu bölümde toplam taranacak maksimum sayfa sayısı, tarama derinliği ve toplam taranacak yönlendirme zinciri gibi sınırlamaları özelleştirebilirsiniz.

screaming-frog-spider-configuration

Bir sonraki sekmede yer alan “Rendering” bölümü, yapılacak taramanın çeşidini belirlemenizi sağlar. Örneğin eğer JavaScript ile çalışan bir siteyi taramak istiyorsanız, buradaki Rendering seçeneğini “JavaScript” olarak seçmeniz gerekmektedir.,

Dördüncü sekmedeki “Advanced” bölümü, yapılacak taramada Canonical etiketlerinin veya noindex gibi engellemelerin kaale alınıp alınmayacağına dair özelleştirmeler yapmanızı sağlar.

Son sekmedeki “Preferences” bölümünden de Title, Description, H1, H2 ve URL gibi alanların varsayılan karakter uzunluğu ve piksel genişliği gibi değerlerini değiştirebilirsiniz.

Content Area

Content alanında yer alan Area bölümünden tarama yapacağınız internet sitesinde kullanılan içerik alanını kelime sayımı, kopyaya yakın olan içerik analizi ve dil bilgisi kontrolleri için belirleyebilirsiniz. Bu, bilinen ortak metinlerden kaçınarak bir sayfanın ana içerik alanına analizin odaklanmasına yardımcı olabilir.

Screaming Frog varsayılan olarak, yalnızca bir web sayfasının gövde HTML öğesinde bulunan metni dikkate alır. Ayrıca yine varsayılan olarak kullanılan içerik alanının sayfanın ana içeriğine odaklanmasına yardımcı olmak için hem navigation hem de footer bölümlerindeki HTML öğeleri hariç tutulur.

screaming-frog-content-area

Tüm web siteleri HTML5 semantik öğeleri kullanılarak oluşturulmaz ve bu yüzden bazı durumlarda bir sitedeki içerik alanını Screaming Frog’da daha da detaylandırabilmek için Content Area bölümünü özelleştirmeniz önerilir. Burada yapacağınız özelleştirmelerle birlikte içerik alanı için HTML öğelerini, sınıflarını veya kimliklerini özel olarak ekleyebilirsiniz.

Content Duplicates

Screaming Frog’da var olan Content bölümü, taranan bir sitenin sayfaları arasındaki içerik benzerliklerini ve kopya durumlarını kontrol ederek tarama sonuçlarında gösterir. Content Duplicates alanında yapacağınız özelleştirme ile birlikte varsayılan ayarlardan hariç olarak ekstra kontroller yapabilirsiniz.

screaming-frog-content-duplicates

Screaming Frog’un varsayılan ayarında sadece indekslenebilen sayfalar için kopya içerik kontrolü (Only Check Indexable Pages for Duplicates) seçeneği etkin durumdayken, içerik benzerliklerini ve kopyaya yakın durumda olan sayfaları kontrol eden (Enable Near Duplicates) bölümü pasif durumdadır. Burada yapacağınız özelleştirme ile örneğin içerik olarak kopya durumuna yakın olan sayfaların da kontrol edilmesini sağlayabilirsiniz.

Spelling & Grammar

Screaming Frog, yapılan bir taramada HTML sayfalarında yazım ve dil bilgisi kontrolleri yapabilmektedir. Screaming Frog’da yazım ve dil bilgisi kontrolleri ayarı, varsayılan olarak devre dışıdır. “Content” sekmesinde kontrol sonuçlarının görüntülenmesi için yazım ve dil bilgisi hatalarının ve ilgili “Spelling” ve “Grammar” seçeneklerinin etkinleştirilmesi gerekir.

Ayrıca Screaming Frog’daki Spelling & Grammar özelliği, kullanılan dili (HTML etiketi ile) otomatik olarak tanımlar, ayrıca yapılandırma için de gerektiğinde dili manuel olarak seçmenize de olanak tanır.

screaming-frog-spelling-grammar

Buradaki Spelling & Grammar özelliği, 39 dil desteklemektedir. Bu diller Arapça, Asturyasça, Belarusça, Bretonca, Katalanca, Çince, Danca, Flemenkçe, İngilizce (Avustralya, Kanada, Yeni Zelanda, Güney Afrika, ABD, İngiltere), Fransızca, Galiçyaca, Almanca (Avusturya, Almanya, İsviçre), Yunanca, İtalyanca, Japonca, Kmerce, Farsça (Afganistan, İran), Lehçe, Portekizce (Angola, Brezilya, Mozambik, Portekiz), Rumence, Rusça, Slovakça, Slovence, İspanyolca, İsveççe, Tagalogca, Tamilce ve Ukraynaca‘dır. Bu araçta, Screaming Frog şu anda Türkçe dilini desteklememektedir.

Robots.txt

Robots.txt bölümü, tarama yapacağınız internet sitesinin Robots.txt dosyasındaki bir engellemeden etkilenmeden veya bir Robots.txt komutunu kontrol etmek adına kullanabileceğiniz bir alandır.

screaming-frog-robots-txt-settings

Buradaki “Settings” kısmından Robots.txt dosyasındaki engellemelerin göz ardı edilerek veya buradaki kurallara uyularak tarama yapılmasını seçebilirsiniz.

screaming-frog-custom-robots-txt

Ayrıca Custom bölümünden de tamamen özel bir Robots.txt dosyası kaydederek dilediğiniz engellemelerin çalışıp çalışmadığını ve taramada nasıl bir rol oynadığını test edebilirsiniz.

URL Rewriting

Tarama sonuçlarında görmek istemediğiniz URL’leri belirtmek için URL Rewriting alanını kullanabilirsiniz. Burada karşınıza gelen penceredeki boş bölüme parametreleri her satırda bir tane olacak şekilde tarama sonuçlarında istemediğiniz URL’leri yazarak kaydetmeniz gerekmektedir.

Bu sayede tarama sonuçlarında örneğin https://www.site.com/?utm_source gibi parametreli bir URL’i https://www.site.com/şeklinde gösterilir. URL Rewriting alanında ayrıca Regex kullanarak da URL’lerin yeniden yazım işlemini yapabilirsiniz. Örneğin, http olan URL’leri https olarak göstermek için veya .com.tr domain uzantısında olan URL’leri .com domain uzantısında görebilmek için uygulayacağınız Regex kurallarıyla URL’leri yeniden yazım işlemi yapabilir ve tarama sonuçlarında görebilirsiniz.

screaming-frog-url-rewriting

URL Rewriting, “Spider” modunda bir taramanın başlangıcı olarak veya “List” modunda eklediğiniz URL’lere değil, sadece bir internet sitesinin taranması esnasında keşfettiğiniz URL’ler için uygulanır.

CDNs

CDN bölümü, tarama esnasında CDN servisinizin URL’lerini Screaming Frog’un dahili bağlantı olarak değerlendirmesini sağlamanız için kullanabileceğiniz bir özelliktir.

screaming-frog-cdns

Bu bölümden CDN’ler için dahili olarak ele alınacak bir domain listesi kaydedebilirsiniz. Yaptığınız bu işlem sonrasında CDN bağlantıları, Screaming Frog’daki “Internal” sekmesine dahil edilir ve daha fazla ayrıntı çıkarılır.

Include

Özellikle çok yüksek sayıda URL’e sahip sitelerde belirli bölümlerdeki URL’ler için tarama yapılacağı durumda, Screaming Frog’un “Include” özelliği kullanılabilir. Bu alanda her satıra bir kural gelecek şekilde regex üzerinden eşleştirme yapabilirsiniz.

screaming-frog-include-urls

Taramayı başlattığınız URL, bu özelliğin çalışması için regex ile eşleşen bir iç bağlantıya sahip olması gerekir, aksi takdirde Screaming Frog ilk URL’den sonra ikinci bir URL’i taramaya geçemez. Ayrıca Screaming Frog’da taramayı başlattığınız URL’in de buradaki eşleştirme kurallarınızın dahilinde olması gerekiyor.

Exclude

Tarama yaparken taranmasını istemediğiniz URL’leri ve dizinleri hariç tutmak için bu özelliği kullanabilirsiniz. Buradaki bölümde her satırda bir adet olacak şekilde engellemeler uygulayabilirsiniz. URL’leri taramadan hariç tutmanız için Regex dilini kullanmanız ve bu şekilde eşleştirme yapmanız gerekmektedir.

screaming-frog-exclude-urls

Buradan uygulayacağınız hariç tutmalar, Screaming Frog’da taramayı başlattığınız ilk URL’de işlev görmemekte. Hariç tutma ayarı, yalnızca tarama esnasında keşfedilen diğer URL’ler için uygulanır.

Speed

Screaming Frog’daki Configuration menüsünde yer alan Speed bölümünden yapacağınız taramanın maksimum iş parçacığı sayısını ve saniyede taranacak URL sayısını istediğiniz seviyelerde düzenleyebilirsiniz.

screaming-frog-spider-speed

Screaming Frog’un varsayılan ayarlarında maksimum iş parçacığı sayısı 5, saniye başına taranan URL sayısı 2 olarak belirlenmiştir. Tarayacağınız internet sitelerinin sunucu performansına göre tarama hızını düşürmeniz gerekebilir, aksi durumda saniye başına atılan istek sayısının yüksek olması durumunda 500 hatalarıyla karşılaşmanız olasıdır.

User-Agent

Taramaya başlamadan önce hangi User-Agent’i kullanarak sayfaları ziyaret edeceğinizi bu ayar ile birlikte özelleştirebilirsiniz. Taranacak bir internet sitesinin sunucu tarafındaki güvenlik ayarları, Screaming Frog User-Agent’ını engellemiş olabilir. Bu durumda Screaming Frog olarak User-Agent kullanırsanız, tarama gerçekleştiremeyeceksiniz.

screaming-frog-user-agent-configuration

User-Agent özelliği ile birlikte tarama gerçekleştirirken karşı sunucuda görünecek User-Agent’ı özelleştirerek örneğin Googlebot’u seçebilir ve böylece olası engellemelere takılmadan taramanızı gerçekleştirebilirsiniz. User-Agent’ı Googlebot olarak seçtiğinizde, yaptığınız taramada kullanıcı aracısı Googlebot olarak görünecektir.

Bu alanı güvenlik engellemelerinden kaçınmaktan hariç olarak belli User-Agent’larda sayfanızın nasıl göründüğünü ve render edilen alanların neler olduğunu da kontrol edebilirsiniz.

HTTP Header

HTTP Header seçeneği, Screaming Frog’da yaptığınız bir tarama sırasında tamamen özel bir HTTP Header istekleri sağlayarak taramanızı gerçekleştirmenizi sağlar.

screaming-frog-custom-http-headers

HTTP Header bölümünde yapacağınız özelleştirme ile birlikte dil, tanımlama bilgisi ve bölge bilgisi gibi yapılandırmalar gerçekleştirmeniz mümkündür.

Custom Search

Custom Search bölümü, Screaming Frog üzerinden bir sitenin kaynak kodunda istediğiniz herhangi bir şeyi aramanıza olanak sağlayan bir özelliktir. Custom Search bölümünde Text veya Regex olarak gireceğiniz bir değeri HTML’de, sayfa metninde, HTML’deki body alanında, HTML’deki head alanında veya içerik alanında arayabilirsiniz.

screaming-frog-custom-search

Girdiğiniz değerin HTML’de var olduğunu veya var olmadığını uygulayacağınız “Contains” veya “Does Not Contains” seçenekleriyle kontrol edebilirsiniz.

Custom Extraction

Custom Extraction bölümü, bir sitenin HTML’inde yer alan bir veriyi CSSPath, XPath veya Regex olarak kazımanıza olanak sağlar. Örneğin, bir e-ticaret sitesindeki ürün sayfalarında yer alan SKU kodlarını bu araç üzerinden yapacağınız CSSPath, XPath veya Regex ayarları ile toplu olarak elde edebilirsiniz.

screaming-frog-custom-extraction

Custom Extraction aracı, yalnızca 200 yanıt koduna sahip olan ve çalışan HTML sayfaları üzerinden veri kazımanıza olanak sağlar. Eğer statik HTML sayfasından hariç olarak render edilen HTML’den veri kazımak için JavaScript rendering moduna geçebilirsiniz.

Custom Link Positions

Screaming Frog, bir internet sayfasının içeriğinde, kenar çubuğunda (sidebar) veya footer alanlarının olup olmadığını kontrol eder ve bir sayfada keşfettiği her bağlantıyı konumuna göre sınıflandırır.

screaming-frog-custom-link-positions

Custom Link Positions aracı ile birlikte tarama yapacağınız bir internet sitesinin link pozisyonlarını sitenin yapısına göre özelleştirebilir ve Screaming Frog’daki “Inlinks” ve “Outlinks” bölümlerindeki link pozisyonlarını ifade eden XPath alanının doğru olarak çalışmasını sağlayabilirsiniz.

Google Analytics API

Google Analytics hesabınızı Screaming Frog ile bağlayarak, eskiye yönelik URL’lerinizle ilgili detaylı bir tarama da gerçekleştirebilirsiniz. Özellikle kapsamlı bir tarama gerçekleştirmek için Google Analytics’e de yansıyan URL’lerinizi taramaya dahil etmeniz, daha önceden var olan ama artık var olmayan URL’lerinizi keşfetmeniz açısından da önemlidir. Bu bağlantıyı yapmak için API Access menüsünden Google Analytics bölümüne tıklamanız ve açılan pencereden “Connect to New Account” butonuna tıklayarak Analytics hesabınızın bulunduğu Google hesabınızla bir bağlantı gerçekleştirmeniz gerekmektedir.

screaming-frog-google-analytics-entegrasyonu

Burada dikkat etmeniz gereken nokta, bağlantı esnasında doğru Analytics mülkünü ve görünümünü seçmenizdir. Daha sonrasında “Date Range” ve “Metrics” alanlarından Google Analytics’ten çekilecek verinin hangi tarih aralığında olmasını istediğinizi ve Screaming Frog’da görmek istediğiniz Analytics metriklerini seçebilirsiniz.

screaming-frog-google-analytics-entegrasyonu-2

Son olarak da daha önceden var olan ama artık var olmayan URL’lerinizin de Analytics üzerinden keşfedilerek taranabilmesi için “General” sekmesindeki “Crawl New URLs Discovered In Google Analytics” seçeneğini işaretlemeniz yeterli olacaktır.

Search Console API

Search Console mülkünüzden veriler elde etmek ve tıpkı yukarıdaki Google Analytics bağlantısında olduğu gibi eskiye yönelik URL’leriniz için de bir kontrol gerçekleştirmek için Search Console API bağlantısını yapmanız gerekmektedir. Böylece daha önceden Google tarafından keşfedilip taranan fakat şu anda internet sitenizde bulunmayan URL’leriniz için de bir kontrol gerçekleştirebilirsiniz. Search Console bağlantısı için API Access menüsünden Google Search Console’a tıklamanız ve açılan pencereden “Connect to New Account” butonuna tıklayarak Search Console mülkünüzün bulunduğu Google hesabınızı seçerek sizden istenen izinleri vermeniz gerekmekte.

screaming-frog-google-search-console-entegrasyonu

Burada Search Console bağlantısını uygularken doğru mülkü seçtiğinizden emin olmalısınız, aksi durumda Search Console’dan eksik/hatalı veri gelecektir. Bağlantı sonrasında “Search Analytics” sekmesinden tarih aralığı, cihaz filtresi, ülke filtresi, query filtresi gibi tercihler yapabilirsiniz.

screaming-frog-google-search-console-entegrasyonu-2

Son olarak da daha önceden var olan ama artık var olmayan URL’lerinizin Search Console üzerinden keşfedilerek taranabilmesi için “Search Analytics” sekmesinde bulunan “Crawl New URLs Discovered In Google Search Console” seçeneğini işaretlemeniz yeterli olacaktır.

PageSpeed Insights API

Screaming Frog taramasıyla birlikte taranan URL’lerinizin PageSpeed Insights’tan elde edilen hız verilerini de görmek isterseniz, taramanızı başlatmadan önce API Access menüsünden PageSpeed Insights bölümüne tıklamanız ve sizden istenen “Secret Key” bilgisini girerek bağlantıyı kurmanız gerekmektedir.

screaming-frog-pagespeed-insights-entegrasyonu

Bu sayede taranan URL’lerinizin hız performansına dair metrikleri tarama sonuçlarınızda görmeniz mümkün hale gelecektir. PageSpeed Insights API bağlantısında yer alan “Metrics” bölümünden Mobil veya Masaüstü olarak tercih yapabilir ve hemen altındaki bölümden görmek istediğiniz verileri seçebilirsiniz.

Majestic API Bağlantısı

URL’lerinizle ilgili olarak Majestic üzerinden veriler görebilmek için Screaming Frog ile Majestic hesabınızı bağlamanız gerekmektedir. Bunun için API Access menüsünden Majestic alanına girmeniz ve daha sonrasında Majestic hesabınızla ilgili sizden istenen “Access Token” bilgisini doğru şekilde kaydetmeniz gerekmektedir.

screaming-frog-majestic-entegrasyonu

Bu sayede Majestic ile Screaming Frog bağlanacak ve tarama sonuç ekranında URL’lerinizle ilgili Majestic API üzerinden alınan verileri görebileceksiniz.

Ahrefs API Bağlantısı

Tarama sonuçlarınızda URL’lerinizle ilgili Ahrefs üzerinden elde edilen verileri görmek isterseniz, Ahrefs hesabınızı Screaming Frog ile bağlayabilirsiniz. API Access menüsündeki Ahrefs bölümüne tıkladığınızda, açılan pencerede Ahrefs hesabınızla bağlantı kurulabilmesi için “Access Token” bilgisi istenecektir.

screaming-frog-ahrefs-entegrasyonu

Doğru bir token girişi sonrasında Ahrefs API üzerinden URL’lerinizle ilgili verileri tarama sonuçlarınızda görebileceksiniz.

Moz API Bağlantısı

Taramanızda Moz üzerinden veri almak isterseniz, API Access menüsündeki Moz bölümünü kullanmanız gerekmektedir. Moz alanında Moz hesabınızla API bağlantısı kurmak için sizden istenen “Access ID” ve “Secret Key” bilgilerini doğru şekilde girmeniz gerekmektedir.

screaming-frog-moz-entegrasyonu

Bu sayede Moz hesabınız ile Screaming Frog bağlantısı kurulacak ve tarama sonuçlarında URL’lerinizle ilgili Moz üzerinden alınan veriler de görünecektir.

Authentication

Tarama yapmak istediğiniz internet sitesi, bir kullanıcı girişi sonrasında çalışıyorsa bu alanda yer alan “Forms Based” bölümünden sitenizin kullanıcı girişi URL’ini ve kullanıcı adı & şifre bilgilerini Screaming Frog’a kaydedebilirsiniz.

screaming-frog-authentication

Bu sayede tarama gerçekleştirilirken Screaming Frog botu öncelikle sitenize bir kullanıcıymış gibi giriş yaparak giriş ekranı sonrası gelen sayfalar için tarama gerçekleştirebilecek.

Screaming Frog Ana Sekmeleri ve Anlamları

Screaming Frog arayüzünde tarama verilerinizi gördüğünüz bölümde yer alan ana sekmeler, tarama esnasında ve sonunda URL’lerinizle ilgili farklı kategorilerde detayları görmenize olanak sağlar. Buradaki sekmelerde ağırlıklı olarak kaynak kodunuzdan elde edilen verileri farklı filtreler kullanarak detaylı şekilde görüntüleyebilir ve her sekmedeki verileri Excel formatında dışarıya aktarabilirsiniz.

screaming-frog-ana-sekmeleri

Screaming Frog’da ana sekmeler bölümünde Internal, External, Security, Response Codes, URL, Page Titles, Meta Description, Meta Keywords, H1, H2, Content, Images, Canonical, Pagination, Directives, Hreflang, JavaScript, AMP, Structured Data, Sitemaps, PageSpeed, Custom Search, Custom Extraction, Analytics, Search Console ve Link Metrics bulunmaktadır. Aşağıda bu sekmelere dair detayları görüntüleyebilirsiniz.

Internal

Screaming Frog’da bir internet sitesini taradığınızda, Internal sekmesinde taranan tüm iç bağlantıları görebilirsiniz. Burada listelenen bağlantılar yalnızca HTML sayfalarınız değil, site içerisindeki tüm URL’leri oluşturur. Yani Internal sekmesinde HTML, CSS, JS ve Image türündeki tüm. URL’leriniz listenelir. Ayrıca yan sütunlarda URL’lere dair HTTP yanıt kodu, title, description, canonical URL, heading etiketi, meta robots etiketleri, sayfanın boyutu, tarama derinliği seviyesi ve sayfa içindeki bağlantı sayısı gibi bilgileri görebilirsiniz. Yan panelden de iç bağlantılarınızı türüne göre (HTML, JavaScript, CSS, Image, PDF, Flash) filtreleyebilirsiniz.

External

External sekmesinde de taradığınız sitedeki sayfalardan dışarıya çıkan tüm bağlantılar listelenmektedir. Harici sitelere giden bağlantıları takip edebileceğiniz bu sekme üzerinde dışarıya giden bağlantıyla ilgili olarak URL, HTTP yanıt kodu, tarama derinliği seviyesi ve content type gibi bilgileri görmeniz mümkündür. Ayrıca sağ bölümden de filtreleme uygulayarak dışarıya giden bağlantıyı türüne göre (HTML, JavaScript, CSS, Image, PDF, Flash) filtreleyebilirsiniz. Bu sekme üzerinden bilginiz olmadan sitenizden dışarıya çıkan bağlantıları keşfedebilir ve hacklink saldırılarından korunabilirsiniz.

Security

Screaming Frog’daki Securiy sekmesi, taranan URL’leriniz arasında Internal (dahili) URL’leriniz için güvenlikle ilgili verileri gösterir. URL’lerinizde kullanılan güvenlik protokolleri ve etiketler hakkında bu sekmeden detayları görüntüleyebilirsiniz. Ayrıca yan panelde de HTTP URLs, HTTPS URLs, Mixed Content, Form URL Insecure, Form on HTTP URL, Unsafe Cross-Origin Links, Protocol-Relative Resource Links, Missing HSTS Header, Missing Content-Security-Policy Header, Missing X-Content-Type-Options Header, Missing X-Frame-Options Header, Missing Secure Referrer-Policy Header ve Bad Content Type gibi filtrelemeleri kullanarak URL’lerinizdeki güvenlik protokolleri hakkında çok daha detaylı incelemelerde bulunabilirsiniz.

Response Codes

Response Codes bölümü, tarama yaptığınız sitedeki tüm URL’lerin HTTP yanıt kodları hakkında bilgi veren bir bölümdür. Burada URL’lerinizin yaptığınız taramada hangi yanıt koduyla yanıt verdiğini gösterir. Ayrıca herhangi bir URL’inizde yönlendirme varsa, yönlendirmeye dair detaylar yan sütunlardaki Redirect URL ve Redirect Type alanlarında listelenir. Yine yan panelde bulunan bölümden, URL’lerinizle ilgili yanıt kodu filtrelerini (Blocked by Robots.txt, Blocked Resource, No Response, Success (2xx), Redirection (3xx), Redirection (JavaScript), Redirection (Meta Refresh), Client Error (4xx), Server Error (5xx)) uygulayarak örneğin sadece 4xx Client Error yanıtına sahip URL’lerinizi filtreleyebilirsiniz.

URL

Arayüzdeki URL sekmesi, tarama yaptığınız internet sitesindeki URL’lerle ilgili verileri detaylı olarak görebileceğiniz bir bölümdür. URL sekmesinde URL’lerinizle ilgili HTTP yanıt kodu, URL uzunluğu ve URL’in hash edilen versiyonu, Canonical URL ve URL’in encode edilen versiyonunu görüntüleyebilirsiniz. Ayrıca yan panelden yapacağınız filtrelemelerle URL’lerinizi Non ASCII Characters, Underscores, Uppercase, Multiple Slashes, Repetitive Path, Contains Space, Internal Search, Parameters, Broken Bookmark ve Over 115 Characters olarak filtreleyebilirsiniz.

Page Titles

Page Titles sekmesi, taranan tüm URL’lerinizin meta title etiketlerini görebileceğiniz alandır. Burada URL’lerinizin title metnini, title karakter sayısını ve title piksel genişliğini görebilirsiniz. Yan paneldeki filtreleri kullanarak da URL’leriniz için Missing Title, Duplicate Title, Over 60 Characters, Below 30 Characters, Over 561 Pixels, Below 200 Pixels, Sames as H1 ve Multiple gibi filtrelemeler yapabilirsiniz.

Meta Description

Meta Description bölümünden de taranan tüm URL’leriniz için meta description etiketlerini kontrol edebilirsiniz. Taranan URL’lerinizin meta description metni, meta description karakter sayısı, meta description piksel genişliği gibi bilgileri bu sekmede görüntüleyebilirsiniz. Ayrıca yan bölümdeki sekmeleri kullanarak da Missing Description, Duplicate Description, Over 155 Characters, Below 70 Characters, Over 1.011 Pixels, Below 400 Pixels ve Multiple gibi filtrelemeler yapabilirsiniz.

Meta Keywords

Meta Keywords sekmesi, sitenizdeki tüm URL’ler için kullandığınız meta keywords etiketiyle ilgili bilgiler sunan bir bölümdür. Buradaki sütunlarda URL’leriniz için meta keywords metnini ve meta keywords karakter sayısını görüntüleyebilirsiniz. Ek olarak yan bölümden de Missing Meta Keywords, Duplicate Meta Keywords ve Multiple gibi filtrelemeler yapabilirsiniz.

H1

H1 sekmesi, URL’lerinizde kullandığınız H1 etiketleri hakkında bilgileri görebileceğiniz alandır. Sayfalarınızdaki H1 etiketlerinin karakter sayısını ve sayfada bulunan toplam <h1> etiketi sayısını H1 sekmesindeki sütunlardan görüntüleyebilirsiniz. Ayrıca yan paneldeki Missing H1, Duplicate H1, Over 70 Characters ve Multiple gibi filtreleri kullanarak H1 etiketlerinizi bu durumlara göre filtreleyebilirsiniz.

H2

Tıpkı H1 sekmesinde olduğu gibi URL’lerinizde kullandığınız H2 etiketlerini de bu sekmede görüntüleyebilirsiniz. Buradaki sekmelerde URL’lerinizde tespit edilen tüm H2 etiketlerini, H2 etiketlerinizin karakter sayısını ve sayfada tespit edilen toplam <h2> etiketi sayısı listelenmektedir. Yan bölümden de H1 etiketinde de olduğu gibi Missing H1, Duplicate H1, Over 70 Characters ve Multiple şeklinde filtrelemeler yapabilirsiniz.

Content

Screaming Frog’daki Content sekmesi, taranan URL’lerinizdeki içerikle ilgili kelime sayısı, tekrar eden (kopya), tekrar etmeye yakın (içerik benzerliği yüksek olan) ve yazım ve dil bilgisi hatalarıyla ilgili ayrıntılar sunmaktadır. Seçtiğiniz bir URL’in sağ kısmındaki bu sütunlarda Word Count, Closest Similarity Match, No Near Duplicates, Total Language Errors, Spelling Errors, Grammar Errors ve Language gibi çeşitli verileri görebilirsiniz. Ayrıca sağ paneldeki Exact Duplicates, Near Duplicates, Low Content Pages, Spelling Errors ve Grammar Errors gibi filtrelemeleri kullanabilirsiniz.

Images

Images bölümü, taranan URL’lerinizde keşfedilen görselleri ve bu görseller hakkındaki çeşitli bilgileri içeren bir alandır. Keşfedilen bir görsel hakkında Image URL, Content Type, Size ve IMG Inlinks gibi bölümlerde çeşitli verileri görüntüleyebilirsiniz. Ek olarak sağdaki Over 100 KB, Missing Alt Text, Missing Alt Attribute ve Alt Text Over 100 Characters gibi filtreleri kullanabilir ve görsellerinizi bu kategorilerde ayrı ayrı inceleyebilirsiniz.

Canonical

Canonical bölümünde, taranan URL’lerinizde keşfedilen Canonical etiketleriyle ilgili detaylı bilgiler listelenir. Toplam tespit edilen Canonical URL sayısı ve Canonical etiketinin işaret ettiği URL gibi birçok detayı bu ekranda görebilirsiniz. Canonical sekmesinde ayrıca yan panelde bulunan Contains Canonical, Self Referencing, Canonicalised, Missing, Multiple ve Non-Indexable Canonical gibi filtreleri kullanarak da Canonical etiketlerinizle ilgili daha detaylı analiz yapabilirsiniz.

Pagination

Screaming Frog’da sayfalanmış URL’lerinizle ilgili detayları Pagination sekmesinde görüntüleyebilirsiniz. Taranan URL’leriniz arasında sayfalandırılmış URL’leriniz mevcutsa, bu URL’lerinizde kullanılan rel=”next”, rel=”prev”, Canonical URL ve Meta Robots etiketleri gibi detayları inceleyebilirsiniz. Ayrıca yine sağ bölümden de Contains Pagination, First Page, Paginated 2+ Pages, Pagination URL Not in Anchor Tag, Non-200 Pagination URLs, Unlinked Pagination URLs, Non-Indexable, Multiple Pagination URLs, Pagination Loop ve Sequence Error gibi filtrelemeler yapabilirsiniz.

Directives

Screaming Frog’daki Directives sekmesi, taranan URL’lerinizin HTTP Header bilgisindeki meta robots ve X-Robots-Tag ile ilgili verileri gösterir. Buradaki robot yönergeleri ile birlikte içeriğinizin ve URL’lerinizin Google gibi arama motorlarında nasıl görüntüleneceği kontrol edilir. Ayrıca yan paneldeki sekmelerden de Index, Noindex, Follow, Nofollow, None, NoArchive, NoSnippet, Max-Snippet, Max-Image-Preview, Max-Video-Preview, NoODP, NoYDIR, NoImageIndex, NoTranslate, Unavailable_After ve Refresh gibi filtrelemeleri kullanarak URL’leriniz için çok daha gelişmiş incelemeler gerçekleştirebilirsiniz.

Hreflang

Özellikle çok dilli siteler için Screaming Frog’daki Hreflang sekmesinin önemi büyüktür. Tarama gerçekleştirdiğiniz URL’lerinizde kullanılan hreflang alternate etiketlerini ve etiketlerle ilgili detayları buradaki ekranda görüntüleyebilirsiniz. URL’lerinizde keşfedilen toplam hreflang etiketi sayısını, hreflang dil kodlarını ve hreflang URL’lerini ayrı ayrı görüntüleyebilirsiniz. Ayrıca yan paneldeki sekmeleri kullanarak da Contains Hreflang, Non-200 Hreflang URLs, Unlinked Hreflang URLs, Missing Return Links, Inconsistent Language & Region Return Links, Non-Canonical Return Links, Noindex Return Links, Incorrect Language & Region Codes, Multiple Entries, Missing Self Reference, Not Using Canonical, Missing X-Default ve Missing olarak filtreleyebilirsiniz.

JavaScript

JavaScript sekmesi, Client Side olarak JavaScript kullanan web sitelerinin denetlenmesiyle ilgili yaygın sorunlara ilişkin veriler ve filtreler içeren bir bölümdür. JavaScript Rendering modunda veri sunan bu bölümde, Screaming Frog ilk olarak sayfaları bir tarayıcıda olduğu gibi aynı şekilde oluşturarak JavaScript içeriğini, bağlantılarını ve diğer bağımlılıkları listelemektedir. Ayrıca yan panelde bulunan Pages with Blocked Resources, Contains  JavaScript Links, Contains JavaScript Content, Noindex Only in Original HTML, Nofollow Only in Original HTML, Canonical Only in Rendered HTML, Canonical Mismatch, Page Title Only in Rendered HTML, Page Title Updated by JavaScript, Meta Description Only in Rendered HTML, Meta Description Updated by JavaScript, H1 Only in Rendered HTML, H1 Updated by JavaScript, Uses Old AJAX Crawling Scheme URLs ve Uses Old AJAX Crawling Scheme Meta Fragment Tag gibi filtreleri kullanarak çok daha detaylı JavaScript analizi gerçekleştirebilirsiniz.

AMP

AMP sekmesinde taranan URL’leriniz arasında AMP kullanılıyorsa, burada detaylı şekilde AMP ile ilgili verileri görebilirsiniz. URL’lerinizin işaret ettiği AMP sayfalarınızın doğru şekilde çalışıp çalışmadığını ve AMP sayfalarınızla ilgili analizleri bu sekmeden elde edeceğiniz detaylarla yapabilirsiniz. Ayrıca yan panelde bulunan Non-200 Response, Missing Non-AMP Return Link, Missing Canonical to Non-AMP, Non-Indexable Canonical, Indexable, Non-Indexable, Missing <html amp> Tag, Missing/Invalid <!doctype html> Tag, Missing <head> Tag, Missing <body> Tag, Missing Canonical, Missing/Invalid <meta charset> Tag, Missing/Invalid <meta viewport> Tag, Missing/Invalid AMP Script, Missing/Invalid AMP Boilerplate, Containt Disallowed HTML ve Other Validation Errors gibi filtreleri kullanarak AMP sayfalarınız hakkında çok daha gelişmiş incelemelerde bulunabilirsiniz.

Structured Data

Tarama başlatmadan önce URL’lerinizde kullanılan Yapısal Veri İşaretlemeleri kodlarını görüntülemek adına bir ayar yaptıysanız, bu sekme üzerinde hangi URL2inizde hangi Structured Data kodunun tespit edildiğini ve tespit edilen kodlarda bir hata olup olmadığını görüntüleyebilirsiniz. Ayrıca yan sekmede bulunan bölümden de Contains Structured Data, Missing, Validation Errors, Validation Warnings, Parse Errors, Microdata URLs, JSON-LD URLs ve RDFa URLs gibi çeşitli filtreleri kullanarak Yapısal Veri İşaretlemesi kodlarınız hakkında detaylı inceleme yapabilirsiniz.

Sitemaps

Screaming Frog taramanızı başlatmadan önce konfigürasyon bölümünde site haritalarınızın taranması ve incelenmesi için gerekli olan ayarı etkinleştirdiyseniz, bu bölümde site haritalarınızla ilgili detaylı veriler görünecektir. Yan bölümdeki panelden de site haritalarınızdaki URL’lerle ilgili URLs in Sitemap, URLs not in Sitemap, Orphan URLs, Non-Indexable URLs in Sitemap, URLs in Multiple Sitemaps, XML Sitemap with over 50k URLs ve XML Sitemap over 50MB gibi filtreler uygulayabilirsiniz.

PageSpeed

PageSpeed sekmesi, adından da anlaşılacağı üzere sitenizdeki tüm URL’ler hakkında sayfa hız performansına dair veriler görebileceğiniz bölümdür. URL’leriniz hakkında hız performans verilerini görebilmek için taramayı başlatmadan önce konfigürasyon bölümünden PageSpeed Insights API’yi etkinleştirmeniz gerekir. Ayrıca yan panelde URL’lerinizin hız performansıyla ilgili birçok farklı filtreyi de uygulayarak daha detaylı analizler gerçekleştirebilirsiniz.

Custom Search

Screaming Frog taraması başlatmadan önce URL’lerinizin kaynak HTML’inde bir veri aramaya yönelik ayarlama yaptıysanız, Custom Search bölümünde hangi URL’lerinizde ilgili verinin tespit edilip edilmediğini görüntüleyebilirsiniz.

Custom Extraction

Tarama başlatmadan önce bir veri kazıma (scrape) işlemi yapmak adına Custom Extraction üzerinden XPath, CSSPath veya Regex ile bir ayarlama yaptıysanız, bu sekmede URL’lerinizde veri kazıma için tanımladığınız bilgilere dair sonuçları görüntüleyebilirsiniz.

Analytics

Screaming Frog taramasını başlatmadan önce, Google Analytics hesabınızla Screaming Frog’u bağladıysanız, Analytics’ten elde edilen veriler bu sekmede listelenecektir. Analytics sekmesinde URL’lerinizle ilgili GA Sessions, GA % New Sessions, GA Users, GA New Users, GA Bounce Rate, GA Page Views Per Session, GA Avg Session Duration, GA Goal Conversion Rate, GA Goal Completions All, GA Goal Value All ve GA Page Value gibi Analytics üzerinden gelen verileri görüntüleyebilirsiniz. Ayrıca yine yan paneldeki sekmelerden de URL’leriniz için Sessions Above 0, Bounce Rate Above 70%, No GA Data, Non-Indexable with GA Data ve Orphan URLs gibi filtrelemeler yapabilirsiniz.

Search Console

Eğer tarama işlemine başlamadan önce Screaming Frog’u Search Console mülkünüzle bağladıysanız, Search Console’dan elde edilen veriler bu sekmede listelenecektir. Search Console’dan URL’leriniz için elde edilen Click, Impression, CTR ve Position gibi verileri bu sekmede görebilirsiniz. Yan panelde bulunan sekmelerden de URL’lerinizle ilgili Clicks Above 0, No Search Analytics Data, Non-Indexable with Search Analytics Data, Orphan URLs, URL is Not on Google, Indexable URL Not Indexed, URL is on Google But Has Issues, User-Declared Canonical Not Selected, Page is Not Mobile Friendly, AMP URL Invalid ve Rich Result Invalid gibi filtrelemeler yapabilirsiniz.

Link Metrics

Eğer Screaming Frog taramanızdan önce Majestic, Ahrefs veya Moz gibi platformlar için API bağlantısı gerçekleştirdiyseniz, URL’lerinizle ilgili çeşitli link metrikleri bu ekranda listelenecektir. Burada listelenen veriler, 3 platform için de ayrı ayrı gösterilmektedir ve URL’leriniz hakkında Backlink, Anchor Text, Trust Flow Değeri, Social Links ve EDU&GOV Links gibi daha birçok metrikten veri sunulmaktadır.

Screaming Frog Yan Sekmeler ve Anlamları

Screaming Frog arayüzünde ekranın sağ kısmında bir sidebar mantığında konumlanan bir yan panel bulunmaktadır.

screaming-frog-yan-sekmeleri

Bu alanda Overview, Site Structure, Response Times, API ve Spelling & Grammar adında sekmeler yer almaktadır. Her sekmenin içinde tarama ile ilgili detaylar listelenmektedir. Aşağıda sekmelerin içeriğiyle ilgili ekstra bilgi edinebilirsiniz.

Overview

Overview alanında gerçekleştirilen taramaya dair tüm detaylar yer almaktadır. Arayüzdeki ana sekmelerle ilgili olan tüm alt kırılımlar bu alanda listelenmektedir. Gerçekleşen taramanın hem bir genel özeti, hem de tüm tarama verileri sekme sekme bu alanda görüntülenebilmektedir.

Site Structure

Site Structure alanı, tarama yaptığınız internet sitesinin URL’lerini alt alta listeleyerek site mimarisi ve site yapısı hakkında detayları gösteren bir bölümdür. Burada belli dizinlerde yer alan URL’ler, klasörlere ayrılmış olarak düzenli şekilde gösterilir.

Bu alanda üst kısımda yer alan ve + butonlarıyla tarama derinliğini düşürebilir veya artırabilirsiniz. Ayrıca aynı alanda sağ kısımda yer alan “View” bölümündeki seçeneklerden “Crawl Depth” seçeneğine tıklayarak aşağıda listelenen URL’lerinizin tarama derinliği ve hangi seviyede tarandığına dair verileri görebilirsiniz.

Response Times

Response Times alanı, tarama yapılan URL’lerden elde edilen sunucunun yanıt verme süresini ifade eder. Bu alanda URL’lerin 0-1 saniye, 1-2 saniye, 3-4 saniye ve 4-5 saniye gibi gruplandırılmış olarak görebilir ve hangi yanıt süresi aralığında ne kadar URL’inizin olduğunu görebilirsiniz. Ayrıca bir yanıt süresi aralığına dahil olan URL’lerin, tüm URL’lere oranını da görüntüleyebilirsiniz.

API

Screaming Frog’daki Configuration bölümünde yer alan API Access menüsündeki platformlara tarama öncesinde bir API bağlantısı gerçekleştirdiyseniz, bu bölümde API bağlantılarının ilerleme yüzdesini ve hata sayısını görüntüleyebilirsiniz. Ayrıca platformların yanında bulunan çark simgesine tıklayarak yeni hesap bağlama işlemini de yapabilirsiniz.

Spelling & Grammar

Screaming Frog’da eğer Configuration bölümünde Content menüsünün altında bulunan Spelling & Grammar aracını etkinleştirdiyseniz, bu alanda URL’lerinizdeki içeriklerle ilgili yapılan yazım ve dil bilgisi kontrollerine dair detayları görebilirsiniz.

Screaming Frog Alt Sekmeler ve Anlamları

Screaming Frog’da taranan URL’ler ile ilgili çok daha fazla ayrıntı görebilmeniz için, arayüzün alt kısmındaki sekmeleri kullanabilirsiniz. Burada sunulan birçok veriyle birlikte sayfalarınıza dair detaylı sonuçlar elde edebilirsiniz.

screaming-frog-alt-sekmeleri

Aşağıda buradaki sekmelerin neler olduğuna ve ne işe yaradığına dair detaylı bilgiler yer almakta.

URL Details

URL Details bölümü, üst kısımda taranmış bir URL’i seçtiğinizde veri oluşturan ve seçtiğiniz URL için yanıt kodu, indekslenebilirlik durumu, başlık etiketi, sunucu yanıt süresi, tarama derinliğindeki seviyesi ve son güncellenme tarihi gibi verileri sunmaktadır.

Inlinks

Inlinks bölümü, taranmış URL’ler arasından bir veya birden fazla URL’i seçtiğinizde, seçtiğiniz URL’lerin site içerisinde hangi sayfalarınızdan iç bağlantılar aldığına dair detayları göstermektedir. Bu alanda “From” sütunu, seçtiğiniz URL’in hangi sayfadan bağlantı aldığını ifade eder. Ayrıca “Type” sütununda iç bağlantının hangi türde verildiğini (Hyperlink, Canonical URL, Redirect vb.) gösterir.

Inlinks bölümünde tablonun geri kalanında bağlantıya dair anchor text, alt text, follow, rel, status code ve link path gibi ek detayları da görüntülemek mümkündür.

Outlinks

Outlinks bölümü, üst kısımda taranmış URL’ler arasından seçtiğiniz bir veya daha fazla URL için dışarıya çıkan bağlantıları listeleyen bir bölümdür. Özellikle hacklink gibi konular için kontrol yapmanıza olanak sağlayan Outlinks bölümünde, Inlinks kısmında olduğu gibi bir bağlantının anchor text, alt text, follow, rel, status code ve link path gibi detaylarını görmeniz mümkündür.

Image Details

Image Details bölümü, sitenizde taranan görsellere dair teknik detayları ve görselin önizlemesini görebileceğiniz bir bölümdür. Seçilen görselin site içerisinde hangi sayfalarda bulunduğu, görselin tam URL’i, görsel alt etiketi ve görselin bir önizlemesi bu alanda sunulmaktadır.

Resources

Resources alanı, üst kısımda seçtiğiniz bir URL için yüklenen CSS, JS ve Image gibi kaynakları listelemektedir. Bu alanı kullanarak bir veya birden fazla URL için yüklenen CSS, JS ve Image dosyalarını ve tam URL hallerini görüntüleyebilirsiniz.

SERP Snippet

Taranan bir URL’i seçerek alt bölümdeki SERP Snippet alanına geçtiğinizde ilgili URL’in Google arama sonuçlarından bir indeks önizlemesini görüntüleyebilirsiniz. Seçtiğiniz taranan bir URL’in title, description ve rich snippet gibi detaylarını SERP önizlemesi ile görebilirsiniz. Sağ kısımda yer alan küçük tabloda da seçtiğiniz URL’in title ve description metinlerinin karakter sayısını, fazla gelen karakter sayısını ve piksel genişliğini inceleyebilirsiniz.

Ayrıca alt kısmında yer alan özelleştirme seçenekleri sayesinde de seçtiğiniz URL için örnek SERP önizlemesini manuel olarak değiştirebilirsiniz. Title, description, description prefix ve rich snippets gibi ek bilgiler ekleyerek SERP’te nasıl görüneceğini bir önizleme olarak görebilirsiniz.

Rendered Page

Rendered Page bölümü, JavaScript kullanılarak oluşturulmuş sayfaların render edilme sonrasında nasıl göründüğüne dair detayları göstermektedir. Seçtiğiniz bir URL’in render edilmiş halinin tam boyda bir kopya görüntüsü sunulmaktadır. Bu alanı kullanarak JavaScript kullanan siteler için render edilme sorunlarının çözülmesini sağlayabilirsiniz.

Rendered Page bölümünün aktifleşmesi için, Screaming Frog’da Configuration menüsü altında yer alan Spider bölümündeki Extraction sekmesinde yer alan “Store HTML” ve “Store Rendered HTML” seçeneklerini aktifleştirmeniz gerekmektedir.

View Source

View Source alanı, taranan bir URL’in kaynak kodunu görebilmek için kullanabileceğiniz bir bölümdür. Kaynak kodun üstünde yer alan açılır menü ile birlikte HTML veya Visible Content olarak iki farklı şekilde sayfaya dair detayları görüntüleyebilirsiniz. Ayrıca aynı bölümde yer alan arama kutucuğu ile birlikte kaynak kodda aradığınız bir ifadeyi kolayca bulabilirsiniz.

HTTP Headers

Screaming Frog’da yer alan HTTP Headers alanı, taraması yapılmış bir URL hakkında üstbilgi sunan bir bölümdür. Bu alanda sunucuya atılan istekten sonra HTML oluşmadan önce gelen çeşitli bilgiler yer almaktadır. Örneğin Cache-Control, User-Agent ve content-type gibi mikro bilgiler, HTTP Headers bölümü üzerinden kontrol edilebilir.

Cookies

Screaming Frog’da yer alan Cookies bölümü, tarama yaptığınız sayfaların kullandığı Cookie’ler hakkında bilgilendirme sağlayan bir alandır. Özellikle GDPR konusunda hangi çerezleri kullandığınıza dair daha kolay bir tespit otomasyonu kurmanızı sağlar.

Cookies alanında sayfalarınızda kullanılan çerezler hakkında Cookie Name, Cookie Value, Domain, Path, Expiration Time, Secure, HttpOnly ve Cookie’nin tespit edildiği URL gibi bilgileri görmeniz mümkündür.

Duplicate Details

Duplicate Details bölümü, sayfalarınız arasındaki içerik benzerliğini kontrol eden bir alandır. İçerik benzerlik oranınız Screaming Frog’un varsayılan ayarı olan %90’ın üzerindeyse, iki sayfa duplicate durumuna çok yakın olarak değerlendirilir. Bu durumda yapılması gereken sayfalarınızdaki içerikleri ayrı ayrı özgün şekilde değiştirmektir.

Screaming Frog’un varsayılan olarak kullandığı “Near Duplicates” oranını değiştirmek için Configuration menüsünde bulunan Content alanından Duplicates sekmesine tıklamanız ve açılan pencerede “Enable Near Duplicates” seçeneğini aktifleştirerek hemen altındaki oran bilgisini %90’dan istediğiniz seviye olacak şekilde düzenlemeniz gerekmektedir.

Structured Data Details

Taranan URL’ler arasından seçtiğiniz bir URL için Yapısal Veri İşaretlemesi’ne dair verileri görüntülemek için bu bölümü kullanabilirsiniz. Sayfanızda kullandığınız Yapısal Veri İşaretlemeleri’ne dair detayları görüntüleyebilir ve hatalı olan kısımları kolayca tespit edebilirsiniz.

Structured Data alanını kullanabilmek için Screaming Frog’da Configuration menüsü altında yer alan Spider bölümündeki Extraction sekmesinde yer alan “JSON-LD”, “Microdata”, “RDFa” ve “Schema.org Validation” bölümlerini etkinleştirmeniz gerekmektedir.

PageSpeed Details

URL’lerinizin hız performansına dair verileri görüntülemek için sekmeler arasında yer alan PageSpeed Details bölümünü kullanabilirsiniz. Taranan URL’ler arasından seçtiğiniz bir URL için, Google PageSpeed Insights & Lighthouse üzerinden alınan verileri inceleyebilir ve sayfanızın her performansına dair tüm detayları görüntüleyebilirsiniz.

Sayfalarınızın hız performansına dair detayları görüntüleyebilmek için Screaming Frog’da Configuration menüsü altında yer alan API Access alanından PageSpeed Insights bağlantısını sorunsuz bir şekilde yapmanız gerekmektedir.

Spelling & Grammar Details

Taranan bir URL’inizin içeriği için yazım ve dil bilgisi kontrollerinde bulunmak adına Spelling & Grammar Details alanını kullanabilirsiniz. Desteklenen dillerde bir içeriğiniz varsa, sayfalarınızdaki içerikler için detaylı bir denetim gerçekleştirebilirsiniz.

Screaming Frog Hakkında Sıkça Sorulan Sorular

Screaming Frog Sitemi Neden Taramıyor?

Screaming Frog’un bir siteyi taraması için herhangi bir güvenlik duvarı engellemesine veya Screaming Frog botlarına yönelik bir engellemeye takılmaması gerekir. Özellikle Robots.txt dosyanız üzerinde botlara yönelik bir engelleme mevcutsa, Screaming Frog botları sitenizi tarayamayacaktır. Bu sebepten dolayı Screaming Frog’daki Configuration menüsü altında yer alan Robots.txt bölümünden Robots.txt komutlarını göz ardı etme seçeneğini kullanabilirsiniz.

İkinci olarak, Screaming Frog botları sunucunuzda aktif olan bir güvenlik duvarı (firewall) engellemesine de takılıyor olabilir. Bu durumda da kullandığınız güvenlik duvarının ayarlarından Screaming Frog botlarını whitelist’a eklemeniz ve Screaming Frog botlarına izin vermeniz gerekmektedir. Screaming Frog’un internet sitenizi neden taramadığına dair ek kontroller için https://www.screamingfrog.co.uk/seo-spider/faq/#why-wont-the-seo-spider-crawl-my-website adresini ziyaret edebilirsiniz.

Screaming Frog Lisans Yenilemesi Nasıl Yapılır?

Var olan fakat süresi biten bir Screaming Frog lisansını yenilemek için https://www.screamingfrog.co.uk/login/ adresinden lisansı satın aldığınız hesaba giriş yapmanız ve lisansınızı ödeme yaparak yenilemeniz gerekmektedir.

Screaming Frog Lisansını Diğer Bilgisayarımda Kullanabilir Miyim?

Screaming Frog lisansını diğer bilgisayarınızda da kullanabilirsiniz. Konuyla ilgili Screaming Frog yardım sayfalarında lisansınızı birden fazla bilgisayarda kullanabileceğinize izin verildiği bilgisi yer almaktadır.

Bir Lisansı Kaç Kullanıcının Kullanmasına İzin Verilir?

Screaming Frog için eğer 1 lisans satın aldıysanız, sadece bir kullanıcının kullanmasına izin verilir. İkinci bir kullanıcı için ayrı bir lisans satın almanız gerekiyor.

Ek Kaynaklar

 

Dijital Pazarlama Ajansı olarak, markanızın başarılı bir büyüme yolculuğuna çıkması için Boosmart’ın eşsiz pazarlama zekası çözümlerini sunuyoruz. İşletmenizin hedeflerini ve ihtiyaçlarını anlayarak, özelleştirilmiş pazarlama stratejileri oluşturmak için gelişmiş teknolojileri kullanıyoruz.
Boosmart’ın pazarlama zekası çözümleri, markanızın dijital varlığını optimize etmek, hedef kitlenizi daha iyi anlamak ve etkili bir şekilde pazarlama faaliyetlerinizi yönetmek için tasarlanmıştır. Sektördeki en son trendleri takip ediyor ve veri analitiği, yapay zeka ve otomasyon gibi güçlü araçları kullanarak markanızın büyümesini destekliyoruz.

 

YouTube kanalımıza abone olun;

https://www.youtube.com/c/boosmart

Instagram hesabımızı takip edin;

https://www.instagram.com/boosmartcom/

Telegram kanalımıza abone olun;

https://t.me/boosmart