Kata Tukang SEO ganteng , setelah nyari di gugel arti Optimasi mesin pencari ( SEO ) adalah proses mempengaruhi visibilitas dari sebuah situs web atau halaman web di mesin pencari " natural " atau un -bayar ( " organik " ) hasil pencarian . Secara umum, sebelumnya ( atau lebih tinggi peringkat pada halaman hasil pencarian ) , dan lebih sering situs muncul dalam daftar hasil pencarian , semakin banyak pengunjung itu akan menerima dari pengguna mesin pencari . SEO dapat menargetkan berbagai jenis pencarian , termasuk pencarian gambar , pencarian lokal , pencarian video, pencarian akademik, pencarian berita dan mesin pencari vertikal industri-spesifik .
Sebagai strategi pemasaran Internet , Menurut tukang seo ganteng lagi adalah SEO mempertimbangkan bagaimana mesin pencari bekerja , apa yang dicari orang , istilah pencarian yang sebenarnya atau kata kunci yang diketik ke dalam mesin pencari dan mesin pencari yang disukai oleh pemirsa yang ditargetkan mereka. Mengoptimalkan situs web mungkin melibatkan mengedit isinya , HTML dan terkait pengkodean untuk kedua meningkatkan relevansinya dengan kata kunci spesifik dan untuk menghilangkan hambatan bagi kegiatan pengindeksan mesin pencari . Mempromosikan situs untuk meningkatkan jumlah backlink , atau link inbound , merupakan taktik SEO lain.
Bentuk jamak dari singkatan SEO juga dapat merujuk kepada "pengoptimalan search engine , " orang-orang yang menyediakan jasa SEO .
Webmaster dan penyedia konten mulai mengoptimalkan situs untuk mesin pencari di pertengahan 1990-an , sebagai mesin pencari pertama katalogisasi Web awal . Begitu juga tukang seo ganteng Pada awalnya, semua webmaster perlu lakukan adalah menyerahkan alamat halaman , atau URL , ke berbagai mesin yang akan mengirim " spider " untuk "crawl " halaman tersebut, ekstrak link ke halaman lain dari itu , dan kembali informasi yang ditemukan pada halaman yang akan diindeks . proses ini melibatkan spider mesin pencari men-download halaman dan menyimpannya di server sendiri mesin pencari , dimana program kedua , dikenal sebagai indexer , ekstrak berbagai informasi tentang halaman , seperti kata-kata mengandung dan mana ini berada , serta berat badan untuk kata-kata tertentu , dan semua link halaman tersebut berisi , yang kemudian ditempatkan ke scheduler untuk merangkak di kemudian hari .
Situs pemilik dan juga tukang seo mulai mengakui nilai dari memiliki situs mereka yang berperingkat tinggi dan terlihat dalam hasil mesin pencari , menciptakan peluang bagi kedua topi putih dan topi hitam praktisi SEO . Menurut analis industri Danny Sullivan, istilah "search engine optimization " mungkin mulai dipakai pada tahun 1997 . Penggunaan didokumentasikan pertama dari istilah Search Engine Optimization adalah John Audette dan perusahaan Multimedia Marketing Group sebagai didokumentasikan oleh halaman web dari situs MMG dari Agustus , 1997.
Versi awal algoritma pencarian didasarkan pada webmaster - memberikan informasi seperti meta tag kata kunci , atau file indeks dalam mesin seperti ALIWEB . Meta tag menyediakan panduan untuk konten setiap halaman . Menggunakan data meta untuk mengindeks halaman ditemukan kurang dari diandalkan , namun, karena pilihan webmaster kata kunci dalam meta tag berpotensi menjadi representasi akurat dari konten yang sebenarnya situs. Data yang tidak akurat , tidak lengkap , dan tidak konsisten dalam meta tag bisa dan tidak menyebabkan halaman untuk peringkat untuk pencarian yang tidak relevan [ meragukan - mendiskusikan ] . Penyedia konten Web juga dimanipulasi sejumlah atribut dalam sumber HTML halaman dalam upaya untuk peringkat baik di mesin pencari .
Dengan mengandalkan begitu banyak pada faktor-faktor seperti kepadatan kata kunci yang eksklusif dalam kontrol webmaster , mesin pencari awal menderita dari penyalahgunaan dan manipulasi peringkat . Untuk memberikan hasil yang lebih baik kepada pengguna mereka , mesin pencari harus beradaptasi untuk memastikan halaman hasil mereka menunjukkan hasil pencarian yang paling relevan , daripada halaman yang tidak berhubungan diisi dengan berbagai kata kunci oleh webmaster yang tidak bermoral . Karena keberhasilan dan popularitas mesin pencarian ditentukan oleh kemampuannya untuk menghasilkan hasil yang paling relevan untuk setiap pencarian tertentu , sehingga hasil tersebut menjadi false akan berubah pengguna untuk menemukan sumber pencari lainnya . Search engine menanggapi dengan mengembangkan algoritma peringkat lebih kompleks , dengan mempertimbangkan faktor-faktor tambahan yang lebih sulit untuk webmaster untuk memanipulasi . Mahasiswa pascasarjana di Universitas Stanford , bukan tukang seo ganteng lho..tapi Larry Page dan Sergey Brin , mengembangkan " BackRub , " sebuah mesin pencari yang mengandalkan algoritma matematis untuk menilai keunggulan halaman web . Jumlah dihitung dengan algoritma , PageRank , merupakan fungsi dari kuantitas dan kekuatan inbound link PageRank memperkirakan . Kemungkinan bahwa halaman yang diberikan akan dicapai oleh pengguna web yang secara acak surfing web , dan mengikuti link dari satu halaman ke halaman lainnya . Akibatnya , ini berarti bahwa beberapa link yang kuat dari yang lain , sebagai halaman PageRank yang lebih tinggi lebih mungkin dicapai oleh surfer acak.
Page dan Brin mendirikan Google pada tahun 1998 . Google menarik perhatian jumlah pertumbuhan pengguna Internet , yang menyukai desain sederhana. faktor Off-halaman ( seperti PageRank dan analisis hyperlink ) dianggap serta faktor on-halaman ( seperti frekuensi kata kunci , meta tag, judul , link dan struktur situs ) untuk memungkinkan Google untuk menghindari jenis manipulasi dilihat di search engine yang hanya dianggap faktor on- halaman untuk peringkat mereka . PageRank Meskipun lebih sulit untuk permainan , webmaster telah mengembangkan alat bangunan link dan skema untuk mempengaruhi mesin pencari Inktomi , dan metode ini terbukti sama berlaku untuk game PageRank . Banyak situs berfokus pada pertukaran, membeli , dan menjual link , sering pada skala besar . Beberapa skema ini , atau koleksi link , melibatkan penciptaan ribuan situs untuk tujuan tunggal spamming link .
Pada tahun 2004 , mesin pencari telah dimasukkan berbagai faktor yang dirahasiakan dalam algoritma peringkat mereka untuk mengurangi dampak dari manipulasi link. Pada bulan Juni 2007 , The New York Times ' Saul Hansell menyatakan situs peringkat Google menggunakan lebih dari 200 sinyal yang berbeda . Mesin pencari terkemuka, Google , Bing , dan Yahoo , tidak mengungkapkan algoritma yang mereka gunakan untuk peringkat halaman . Beberapa praktisi SEO telah mempelajari pendekatan yang berbeda ke mesin pencari optimasi , dan telah berbagi pendapat pribadi mereka. Paten yang berhubungan dengan mesin pencari dapat memberikan informasi untuk lebih memahami mesin pencari .
Pada tahun 2005 , Google mulai personalisasi hasil pencarian untuk setiap pengguna . Tergantung pada sejarah mereka dari pencarian sebelumnya , Google dibuat hasil untuk login pengguna . Pada tahun 2008 , Bruce Clay mengatakan bahwa " peringkat mati " karena personalisasi pencarian . Dia berpendapat bahwa hal itu akan menjadi tidak berarti untuk mendiskusikan bagaimana sebuah website peringkat , karena peringkat yang berpotensi akan berbeda untuk setiap pengguna dan setiap pencarian .
Pada tahun 2007 , Google mengumumkan kampanye melawan link berbayar yang mentransfer PageRank [ 15 ] Pada tanggal 15 Juni 2009, Google mengungkapkan bahwa mereka telah mengambil langkah-langkah untuk mengurangi dampak PageRank mematung dengan menggunakan atribut nofollow pada link . . Matt Cutts , seorang insinyur perangkat lunak terkenal di Google , mengumumkan bahwa Google Bot tidak akan lagi memperlakukan link nofollow dengan cara yang sama , untuk mencegah penyedia jasa SEO dari menggunakan nofollow untuk PageRank patung. Sebagai hasil dari perubahan ini penggunaan nofollow menyebabkan penguapan pagerank . Untuk menghindari hal di atas , insinyur SEO mengembangkan teknik alternatif yang mengganti nofollow tag dengan dikaburkan Javascript dan dengan demikian mengizinkan patung PageRank . Selain itu beberapa solusi telah diusulkan yang mencakup penggunaan iframe , Flash dan Javascript .
Pada bulan Desember 2009 , Google mengumumkan akan menggunakan riwayat pencarian web dari semua pengguna dalam rangka untuk mengisi hasil pencarian .
Google Instant , real-time -search , diperkenalkan pada akhir tahun 2010 dalam upaya untuk membuat hasil pencarian yang lebih tepat waktu dan relevan . Secara historis administrator situs telah menghabiskan bulan atau bahkan bertahun-tahun mengoptimalkan sebuah website untuk meningkatkan peringkat pencarian . Dengan pertumbuhan popularitas situs media sosial dan blog mesin terkemuka membuat perubahan pada algoritma mereka untuk mengizinkan konten segar untuk peringkat cepat dalam hasil pencarian .
Pada Februari 2011, Google mengumumkan update Panda , yang menghukum website yang berisi konten digandakan dari situs web dan sumber-sumber lain . Secara historis website telah menyalin konten dari satu sama lain dan manfaat dalam peringkat mesin pencari dengan terlibat dalam praktek ini , namun Google menerapkan sistem baru yang menghukum situs yang isinya tidak unik . |
Pada bulan April 2012, Google meluncurkan Google Penguin memperbarui tujuan yang adalah untuk menghukum website yang menggunakan teknik manipulatif untuk meningkatkan peringkat mereka di mesin pencari .
Pada tahun 1997 , mesin pencari diakui bahwa webmaster sedang membuat upaya untuk peringkat yang baik di mesin pencari mereka , dan bahwa beberapa webmaster bahkan memanipulasi peringkat mereka di hasil pencarian dengan isian halaman dengan kata kunci yang berlebihan atau tidak relevan . Mesin pencari awal , seperti Altavista dan Infoseek , disesuaikan algoritma mereka dalam upaya untuk mencegah webmaster dari memanipulasi peringkat .
Pada tahun 2005 , sebuah konferensi , AirWeb , Adversarial Information Retrieval tahunan di Web diciptakan untuk mempertemukan para praktisi dan peneliti berkaitan dengan optimasi mesin pencari dan topik terkait .
Perusahaan yang menggunakan teknik terlalu agresif bisa mendapatkan website klien mereka dilarang dari hasil pencarian . Pada tahun 2005 , Wall Street Journal melaporkan pada sebuah perusahaan , Lalu Lintas Power, yang diduga digunakan teknik berisiko tinggi dan gagal untuk mengungkapkan risiko tersebut kepada kliennya. [ 24 ] majalah Wired melaporkan bahwa perusahaan yang sama menggugat blogger dan SEO Aaron Wall untuk menulis tentang larangan Google Matt Cutts kemudian menegaskan bahwa Google ternyata memang melarang Lalu Lintas Power dan beberapa klien.
Beberapa search engine juga mengulurkan tangan untuk industri SEO , dan sering sponsor dan tamu di konferensi SEO , chatting , dan seminar . Mesin pencari utama memberikan informasi dan panduan untuk membantu dengan optimasi situs . Google memiliki program Sitemaps untuk membantu webmaster belajar jika Google mengalami masalah pengindeksan situs web mereka dan juga menyediakan data pada lalu lintas ke situs web Google . Bing webmaster Tools menyediakan cara bagi webmaster untuk mengirimkan sitemap dan web feed , memungkinkan pengguna untuk menentukan tingkat merangkak , dan melacak halaman web Status indeks.
Teknik SEO dapat diklasifikasikan ke dalam dua kategori besar : teknik bahwa mesin pencari merekomendasikan sebagai bagian dari desain yang baik , dan orang-orang teknik yang mesin pencari tidak setuju . Mesin pencari berusaha untuk meminimalkan dampak yang terakhir , di antara mereka spamdexing . Komentator industri telah mengklasifikasikan metode ini , dan White topi praktisi yang mempekerjakan mereka, baik sebagai SEO topi putih , atau SEO topi hitam . Cenderung menghasilkan hasil yang terakhir waktu yang lama , sedangkan topi hitam mengantisipasi bahwa situs mereka mungkin akhirnya akan dilarang baik sementara atau selamanya setelah mesin pencari menemukan apa yang mereka lakukan .
Sebuah teknik SEO dianggap putih topi jika sesuai dengan pedoman mesin pencarian 'dan tidak melibatkan penipuan . Sebagai pedoman mesin pencari tidak ditulis sebagai serangkaian aturan atau perintah, ini adalah perbedaan penting untuk dicatat . White hat SEO bukan hanya tentang mengikuti pedoman , tapi adalah tentang memastikan bahwa konten indeks mesin pencari dan kemudian peringkat adalah konten yang sama , pengguna akan melihat . Saran topi putih umumnya disimpulkan sebagai menciptakan konten untuk pengguna, bukan untuk mesin pencari , dan kemudian membuat konten yang mudah diakses oleh laba-laba , daripada mencoba untuk mengelabui algoritma dari tujuan yang dimaksudkan . White hat SEO dalam banyak hal serupa untuk pengembangan web yang mempromosikan aksesibilitas , meskipun keduanya tidak identik .
Black hat SEO berusaha meningkatkan peringkat dengan cara yang ditolak dari oleh mesin pencari , atau melibatkan penipuan . Salah satu teknik topi hitam menggunakan teks yang tersembunyi , baik sebagai teks yang berwarna mirip dengan latar belakang , dalam sebuah div yang tak terlihat , atau posisi dari layar . Metode lain memberikan halaman yang berbeda tergantung pada apakah halaman yang diminta oleh pengunjung manusia atau sebuah mesin pencari , teknik yang dikenal sebagai cloaking .
Search engine dapat menghukum mereka menemukan situs menggunakan metode topi hitam , baik dengan mengurangi atau menghilangkan peringkat mereka listing mereka dari database mereka sama sekali . Hukuman tersebut dapat diterapkan baik secara otomatis oleh algoritma mesin pencari ' , atau dengan review situs manual. Salah satu contoh adalah Februari 2006 Google pengangkatan kedua BMW Jerman dan Ricoh Jerman untuk penggunaan praktik penipuan Kedua perusahaan , bagaimanapun, dengan cepat meminta maaf , tetap menyinggung halaman , dan dikembalikan ke daftar Google . Sebagai strategi pemasaran
SEO bukanlah strategi yang tepat untuk setiap website , dan strategi pemasaran Internet lainnya dapat lebih efektif seperti iklan dibayar melalui kampanye PPC , tergantung pada tujuan situs operator . Sebuah kampanye pemasaran Internet yang sukses mungkin juga tergantung pada membangun halaman web berkualitas tinggi untuk terlibat dan membujuk , menyiapkan program analisis untuk memungkinkan pemilik situs untuk mengukur hasil , dan meningkatkan tingkat konversi situs .
SEO dapat menghasilkan tingkat pengembalian yang memadai atas investasi . Namun, mesin pencari tidak dibayar untuk lalu lintas pencarian organik , perubahan algoritma mereka , dan tidak ada jaminan arahan lanjutan . Karena tidak adanya jaminan dan kepastian , sebuah bisnis yang sangat bergantung pada lalu lintas mesin pencari dapat menderita kerugian besar jika mesin pencari berhenti mengirim pengunjung Search engine . Dapat mengubah algoritma mereka , berdampak penempatan sebuah website , mungkin mengakibatkan serius hilangnya lalu lintas. Menurut Google CEO , Eric Schmidt , pada tahun 2010 , Google membuat lebih dari 500 perubahan algoritma - . . Hampir 1,5 per hari. Hal ini dianggap sebagai praktik bisnis yang bijaksana untuk operator website untuk membebaskan diri dari ketergantungan pada lalu lintas mesin pencari pasar Internasional
Optimasi teknik sangat disesuaikan untuk mesin pencari yang dominan di pasar sasaran . Pangsa pasar mesin pencari ' bervariasi dari pasar ke pasar , seperti halnya persaingan . Pada tahun 2003 , Danny Sullivan menyatakan bahwa Google mewakili sekitar 75 % dari semua pencarian . Di pasar di luar Amerika Serikat , saham Google seringkali lebih besar , dan Google tetap mesin pencari yang dominan di seluruh dunia pada 2007 . [ 50 ] Pada 2006 , Google memiliki pangsa pasar 85-90 % di Jerman . Sementara ada ratusan perusahaan SEO di AS pada waktu itu , hanya ada sekitar lima di Jerman . pada Juni 2008, pangsa pasar dari Google di Inggris hampir 90 % menurut Hitwise Bahwa pangsa pasar dicapai di sejumlah negara . .
Pada 2009, hanya ada pasar yang besar di mana beberapa Google bukan mesin pencari terkemuka . Dalam kebanyakan kasus , ketika Google tidak terkemuka di pasar tertentu , itu tertinggal pemain lokal. Pasar Contoh yang paling menonjol adalah China, Jepang , Korea Selatan , Rusia dan Republik Ceko di mana masing-masing Baidu , Yahoo! Japan , Naver , Yandex dan Seznam adalah pemimpin pasar .
Keberhasilan dalam optimasi pencarian untuk pasar internasional mungkin memerlukan terjemahan profesional dari halaman web , pendaftaran nama domain dengan domain tingkat atas di pasar sasaran , dan web hosting yang menyediakan alamat IP lokal . Jika tidak , elemen fundamental dari pencari optimasi pada dasarnya sama , tanpa memandang bahasa .
oleh tukang seo ganteng di wikimedia.
No comments:
Post a Comment