Edisi Pemula 2016 Full Update---
Search engine yang lain masih banyak yang menerapkan faktor usia halaman sehingga halaman-halaman yang baru sulit mendapatkan peringkat di dalam hasil pencarian mereka. Hal ini membuat Google disukai oleh para pencari dan pembuat web.
Kurang lebih cara kerja search engine itu sama saat anda membuka sebuah halaman website dan membacanya lalu mengklik link-link lain pada halaman itu untuk membaca halaman-halaman yang lainnya. Bedanya adalah Google melakukannya dengan menggunakan Googlebot yang merupakan sekumpulan besar set komputer yang melakukannya dalam kecepatan yang jutaan kali kecepatan anda.
Jadi untuk memastikan halaman web anda masuk dalam daftar hasil pencarian Google, maka halaman web itu harus masuk dalam index.... dan untuk masuk dalam index anda harus memastikan halaman web anda bisa dirayapi oleh Google.
Cara terbaik untuk memastikan itu adalah mempunyai banyak link dari halaman-halaman yang sudah terindex yang merujuk ke halaman web anda. Link-link dari website lain yang menuju ke halaman web anda ini biasa disebut backlink.
Sebelum anda mencari banyak link untuk memastikan perayapan, maka terlebih dahulu anda harus memastikan halaman web anda bisa dirayapi. Percuma saja banyak backlink jika halaman anda tidak bisa dirayapi.
Untuk yang satu ini anda bisa mencoba fitur Google Webmaster Tools, yaitu Fetch As Google.
Sebelum melakukan fetch, tentunya website anda harus sudah terhubung ke webmaster tools. Bagi pengguna blogspot tidak perlu repot, karena blogspot sudah terhubung otomatis dengan webmaster tools dari google. Yang perlu melaporkan websitenya ke google webmaster tools adalah yang mempunyai website di luar produk google.
Sekarang anda sudah bisa menggunakan fetch as Google untuk menguji apakah googlebot bisa merayapi halaman website anda.
Halaman-halaman yang memakai title tag yang sama dan meta description yang sama seperti halaman versi lain dari html (pdf version, printable version, dll), bisa merusak kualitas website anda jika sampai terindeks oleh Google. Kenapa bisa merusak kualitas? Hal itu dikarenakan munculnya duplikat title tag dan duplikat meta description di dalam website anda. Untuk mengatasi ini anda bisa menggunakan robots.txt untuk mengatur robot search engine.
Selain halaman yang berpotensi menjadi duplikat, tentu anda juga tidak mau halaman admin anda sampai masuk ke dalam index Google.
Ingat! Yang perlu anda lakukan hanyalah memblokir halaman-halaman yang tidak anda inginkan untuk dirayapi. Halaman-halaman yang anda inginkan untuk dirayapi oleh mesin pencari tidak memerlukan pengaturan apa-apa, karena perayapan itu adalah nilai default. Jika tidak dilarang, mereka akan merayapi....
Buat yang bingung bisa mencoba untuk googling "cara memakai robots.txt".
Jika memang halaman kategori dan label mengalirkan poin, kenapa harus di-noindex?Sebenarnya tidak semua halaman kategori dan label harus di noindex, hanya halaman-halaman yang mempunyai duplikat title dan meta yang harus dibuat noindex. Jika halaman kategori dan label anda tidak menimbulkan duplikat title dan meta, maka biarkan saja.
Untuk membuat halaman-halaman seperti ini noindex, maka anda bisa memasang meta robots noindex di halaman-halaman seperti ini. Tapi untuk saat ini anda belum perlu melakukan apa-apa. Ini nanti bisa anda lakukan di tahapan optimasi SEO onpage.
Algoritma hummingbird inilah yang menilai relevansi halaman website kita dengan kata kunci yang kita targetkan. Halaman yang dinilai oleh hummingbird adalah halaman-halaman web yang sudah lolos penilaian algoritma panda dan algoritma penguin. Di mana panda menilai kesegaran dan unsur spam dari onpage sebuah halaman web, sedangkan penguin menilai karakteristik dari backlink yang diperoleh oleh sebuah halaman website.
Semua algoritma google ini tidak akan dibahas di sini, karena pendalamannya akan dibahas di SEO onpage, dan SEO offpage.
Langkah selanjutnya anda akan mempelajari bagaimana cara memilih kata kunci yang pantas mendapat perhatian anda untuk dioptimasi. Jangan sampai anda mengoptimasi kata kunci yang tidak ada potensi trafiknya.
SEO adalah singkatan dari Search Engine Optimization. Ini merupakan sekumpulan kegiatan yang dilakukan untuk memenuhi standar kualitas dari mesin pencari, agar halaman web kita dapat meraih ranking pertama di hasil pencarian dengan mengalahkan semua pesaing pada suatu kata kunci tertentu.
Kata Kunci adalah semua hal yang diketikkan orang pada saat menggunakan Google. Setelah kata kunci diketikkan, Google akan menampilkan hasil pencarian yang diperlukan oleh penggunanya. Mereka yang melakukan SEO ingin mendapatkan trafik dari Google dengan menaklukkan kata-kata kunci tertentu yang bisa membawa trafik ke website yang dioptimasi.
Untuk bisa mendapatkan trafik dari google bukanlah hal yang mudah, karena Google hanya menyediakan 7-10 tempat pada halaman pertama. Sedangkan website yang menyediakan informasi yang serupa bisa mencapai jutaan. Jadi hanya karena bisa membuat sebuah blog atau website, bukan berarti anda akan mendapatkan trafik dari Google.
Kenapa Google Selalu Menonjol Di Dalam SEO?
Kenapa dari tadi kita hanya menyebut Google? Sebagai permulaan dalam aktifitas belajar SEO anda, maka perlu diinfokan bahwa 68% pencarian di dunia ini ditangani oleh mesin pencarian google. Hal itu dikarenakan Google mempunyai algoritma yang paling berkembang saat ini dan mampu memberikan hasil yang lebih relevan dan fresh.Search engine yang lain masih banyak yang menerapkan faktor usia halaman sehingga halaman-halaman yang baru sulit mendapatkan peringkat di dalam hasil pencarian mereka. Hal ini membuat Google disukai oleh para pencari dan pembuat web.
Bagaimana Cara Kerja Google dan Mesin Pencari Lainnya?
Google dan mesin pencari lainnya bekerja dengan melalui 3 tahapan, yaitu:- Perayapan
- Pengindeksan, dan
- Penyajian hasil pencarian
Apa itu Robot Search Engine?
Robot search engine adalah program yang dibuat untuk membuka halaman website, merayapi semua isi halaman web tersebut, mengambil data, membuka semua link pada halaman web tersebut, dan mengulangi semua proses ini pada halaman web yang dibuka melalui link-link tadi.Kurang lebih cara kerja search engine itu sama saat anda membuka sebuah halaman website dan membacanya lalu mengklik link-link lain pada halaman itu untuk membaca halaman-halaman yang lainnya. Bedanya adalah Google melakukannya dengan menggunakan Googlebot yang merupakan sekumpulan besar set komputer yang melakukannya dalam kecepatan yang jutaan kali kecepatan anda.
Kenapa diperlukan Perayapan?
Perayapan itu maksudnya Googlebot mengunjungi semua halaman website yang bisa dikunjungi, dan tujuannya adalah mengumpulkan data halaman-halaman tersebut ke sistem index Google. Data di dalam index inilah yang dihidangkan saat kita melakukan pencarian.server-server tempat data semua halaman web disimpan |
Cara terbaik untuk memastikan itu adalah mempunyai banyak link dari halaman-halaman yang sudah terindex yang merujuk ke halaman web anda. Link-link dari website lain yang menuju ke halaman web anda ini biasa disebut backlink.
Sebelum anda mencari banyak link untuk memastikan perayapan, maka terlebih dahulu anda harus memastikan halaman web anda bisa dirayapi. Percuma saja banyak backlink jika halaman anda tidak bisa dirayapi.
Untuk yang satu ini anda bisa mencoba fitur Google Webmaster Tools, yaitu Fetch As Google.
Sebelum melakukan fetch, tentunya website anda harus sudah terhubung ke webmaster tools. Bagi pengguna blogspot tidak perlu repot, karena blogspot sudah terhubung otomatis dengan webmaster tools dari google. Yang perlu melaporkan websitenya ke google webmaster tools adalah yang mempunyai website di luar produk google.
Mendaftar Webmaster Tools
Ini juga merupakan proses penting di dalam belajar SEO, yaitu mengetahui cara mendaftar di webmaster tools. Kenapa ini penting? Karena tools ini menyediakan banyak informasi tentang bagaimana Google melihat website anda. Google Webmaster Tools hampir selalu dilibatkan dalam penyelesaian masalah jika website kita mengalami penurunan di hasil pencarian Google.- Untuk melakukan pendaftaran anda cukup melakukan login ke akun Google anda
- Setelah anda melakukan login, kunjungilah URLhttps://www.google.com/webmasters/tools/
- Klik tombol "ADD A PROPERTY"
- Akan muncul popu up, masukkan url anda
- Akan muncul metode verifikasi lengkap dengan panduannya.
- Download file html yang anda perlukan pada link nomor 1 dalam gambar
- upload file tersebut ke root dari website anda (bisa memakai CPanel)
- Konfirmasi bahwa file sudah anda upload dengan mengklik link nomor 2
- Klik tombol verifikasi dan selesai.
Sekarang anda sudah bisa menggunakan fetch as Google untuk menguji apakah googlebot bisa merayapi halaman website anda.
- Masuk ke webmaster tools anda di search console dan klik link untuk nama website yang baru anda verifikasi
- Akan muncul dashboard untuk website tersebut, dan di sidebar kiri ada menu CRAWL/PERAYAPAN. Klik pada menu untuk menampilkan sub menu FETCH AS GOOGLE atau AMBIL SEBAGAI GOOGLE.
- Biarkan saja kolomnya kosong untuk melakukan fetch pada homepage
- Klik Fetch dan lihat apakah proses FETCH sukses/complete. Jika gagal, maka kemungkinan Google bermasalah mengindeks. Penyebabnya bisa banyak, tetapi yang sering terjadi adalah robot diblokir oleh server host secara tidak sengaja.
Memblokir Robot Search Engine
Saat anda belajar SEO atau optimasi website, anda harus mengetahui bahwa anda harus bisa mengendalikan perayapan robot mesin pencari di halaman anda. Kenapa seperti itu? Karena ada halaman-halaman yang harus anda hindari untuk dirayapi oleh robot mesin pencari.Halaman-halaman yang memakai title tag yang sama dan meta description yang sama seperti halaman versi lain dari html (pdf version, printable version, dll), bisa merusak kualitas website anda jika sampai terindeks oleh Google. Kenapa bisa merusak kualitas? Hal itu dikarenakan munculnya duplikat title tag dan duplikat meta description di dalam website anda. Untuk mengatasi ini anda bisa menggunakan robots.txt untuk mengatur robot search engine.
Selain halaman yang berpotensi menjadi duplikat, tentu anda juga tidak mau halaman admin anda sampai masuk ke dalam index Google.
Ingat! Yang perlu anda lakukan hanyalah memblokir halaman-halaman yang tidak anda inginkan untuk dirayapi. Halaman-halaman yang anda inginkan untuk dirayapi oleh mesin pencari tidak memerlukan pengaturan apa-apa, karena perayapan itu adalah nilai default. Jika tidak dilarang, mereka akan merayapi....
Buat yang bingung bisa mencoba untuk googling "cara memakai robots.txt".
Memerintahkan Noindex Pada Robot Search Engine
Ada halaman yang tidak boleh diblokir tetapi juga bukan untuk diindex. Kenapa tidak diblokir? Karena di dalam halaman ini ada link, jadi halaman ini mengalirkan poin dan jika diblokir maka poinnya akan hilang. Halaman-halaman seperti ini biasanya ada pada halaman kategori dan label.Jika memang halaman kategori dan label mengalirkan poin, kenapa harus di-noindex?Sebenarnya tidak semua halaman kategori dan label harus di noindex, hanya halaman-halaman yang mempunyai duplikat title dan meta yang harus dibuat noindex. Jika halaman kategori dan label anda tidak menimbulkan duplikat title dan meta, maka biarkan saja.
Untuk membuat halaman-halaman seperti ini noindex, maka anda bisa memasang meta robots noindex di halaman-halaman seperti ini. Tapi untuk saat ini anda belum perlu melakukan apa-apa. Ini nanti bisa anda lakukan di tahapan optimasi SEO onpage.
ALGORITMA GOOGLE
Ini adalah bagian terpenting dari belajar SEO. Saat ini ada 3 Algoritma yang menjadi fokus utama dalam melakukan search engine optimization, yaitu:- Hummingbird
- Panda
- Penguin
Algoritma hummingbird inilah yang menilai relevansi halaman website kita dengan kata kunci yang kita targetkan. Halaman yang dinilai oleh hummingbird adalah halaman-halaman web yang sudah lolos penilaian algoritma panda dan algoritma penguin. Di mana panda menilai kesegaran dan unsur spam dari onpage sebuah halaman web, sedangkan penguin menilai karakteristik dari backlink yang diperoleh oleh sebuah halaman website.
Semua algoritma google ini tidak akan dibahas di sini, karena pendalamannya akan dibahas di SEO onpage, dan SEO offpage.
Review
- Jadi sampai di sini anda sudah tahu apa SEO itu dan tujuan melakukannya.
- Anda juga sudah tahu bahwa halaman web anda harus bisa dirayapi, dan bagaimana cara anda memastikan halaman web anda bisa dirayapi.
- Anda juga sudah mengetahui bagaimana cara anda mencegah halaman-halaman tertentu untuk dirayapi atau diindex
- Anda juga sudah mendengar 3 algoritma utama dan fungsi masing-masing algoritma
Langkah selanjutnya anda akan mempelajari bagaimana cara memilih kata kunci yang pantas mendapat perhatian anda untuk dioptimasi. Jangan sampai anda mengoptimasi kata kunci yang tidak ada potensi trafiknya.