11.9 C
New York kenti
14 Mayıs 2024
Teknoloji

Google robots.txt protokolünü standart haline getirmek istiyor

Arama robotları, bir sitenin hangi kısımlarını inceleyip hangilerini atlayacağını öğrenmek amacıyla robots.txt evrakından yararlanıyor. REP (Robots Exclusion Protocol) olarak isimlendirilen robots.txt protokolü, Google tarafından standart haline getirilmeye çalışıyor. Bu hedefle robots.txt ayrıştırıcı kütüphanesi açık kaynak olarak paylaşıldı.

Robots.txt ayrıştırması standart hale geliyor

25 yıllık REP, standart üzere gözükse de farklı web geliştiriciler robots.txt belgesini ayrıştırırken farklı yöntemler kullanabiliyor. Haliyle bu da karışıklığa sebebiyet veriyor. Kimi arama robotlarının da boyutları yüzlerce megabayta varan robots.txt evraklarını okumakta zorlanması durumları zorlaştıran bir diğer sıkıntı. Velhasıl Google, kendi ayrıştırıcısını açık kaynak kodlu yayınlayarak bu stil sıkıntıların ortadan kalkıp, aşikâr bir standardın oluşmasını istiyor.

Google, birçok iş koluna ayrılmış olsa da arama motoru kısmı şirketin temelini oluşturuyor. Sitelerin indekslenip arama sonuçlarında çıkması da Googlebot isimli arama robotu sayesinde sağlanıyor. Farklı geliştiricilerin de kendi arama robotları var. Robots.txt ayrıştırması için Google’ın yayınladığı bu kütüphane kullanılırsa, arama robotlarının da siteleri indekslemesi çok daha rahat olacak.

Tabii ki geliştiriciler tarafından benimsenmediği sürüce standart haline gelmesi mümkün değil. Fakat Google “Web site sahiplerinin ve geliştiricilerin internet tecrübesini geliştirmeye odaklanıp, arama robotlarını nasıl denetim edecekleriyle uğraşmamalarını istiyoruz.” açıklamasında bulundu. Geliştiricilerden kütüphane hakkında geri dönüşler bekleniyor.

Related posts

Turkcell’in dijital servisleri Türkiye’nin Uygulamaları oldu

admin

Gençlik Bakanlığı’ndan 25 bin TL ödüllü Genç Hackathon yarışması

admin

ŞOK marketlerde Dyson Absolute süpürge, oyuncu kulaklıkları ve akıllı saat var

admin

Leave a Comment