Cara Kerja Search Engine

Cara Kerja Search Engine - Belajar tentang SEO berarti harus tahu dulu tentang search engine. Dan salah satu yang harus diketahui adalah tentang bagaimana search engine bekerja memproses semua data-data di internet dan menyajikannya ke pengguna search engine. Dengan mengetahuinya, harapan saya, kamu bisa menyusun strategi SEO terbaik ala-ala kamu sendiri. Jadi, yuk kita coba pelajari tentang cara kerja mesin pencari ini. 


Apa pentingnya mengetahui cara kerja search engine?

Seperti yang saya bilang di awal, dengan mengetahui cara kerja mesin pencari seperti Google atau Bing atau search engine lain, maka kamu jadi bisa menyusun strategi optimasi yang akan dipakai untuk meningkatkan performa konten kita tanpa perlu melakukan hal-hal yang tidak perlu.

Kenapa saya bilang gitu? Karena saya sering mendengar blogger-blogger yang mengeluh atau komplain tentang blog mereka yang katanya nggak terindeks oleh Google atau blog mereka susah buat dapet peringkat bagus di Google, dan masih banyak keluh kesah lainnya.

Kalau kamu tahu konsep dari mesin pencari, kamu nggak akan terlalu khawatir tentang hal-hal seperti itu dan kalau memang kamu khawatir, kamu tau solusi untuk mengatasinya.


Bagaimana cara search engine?

Secara sederhana, cara kerja mesin pencari dibagi jadi 3 proses, yaitu:
  1. Crawling
  2. Indexing
  3. Positioning / Ranking
Apa sih maksud dari masing-masing istilah itu? Oke, saya coba jelaskan satu per satu. 


Crawling

Crawling adalah proses dimana mesin pencari menjelajah di internet untuk mencari konten-konten baru dan segar yang berceceran di internet setiap menitnya. Untuk menjelajah ini, mesin pencari seperti Google menggunakan sebuah program atau robot yang biasanya dikenal dengan istilah crawler atau spider. Nah, si robot-robot inilah yang secara otomatis menjelajahi setiap link/ halaman/ dokumen/ file yang bisa mereka temukan.

Setiap kali crawler menemukan konten baru (maksudnya konten baru disini adalah konten yang belum ada dalam database mereka), maka si robot ini akan membaca konten tersebut. Robot membacanya dalam versi HTML (kode script) secara skimming. Untuk bagian-bagian apa saja yang dibaca itu tergantung dari system yang dibuah oleh search engine itu sendiri.

Tapi umumnya, data-data penting akan lebih dahulu diproses oleh crawler. Data itu terdiri dari:

  • URL halaman
  • Judul halaman (Title tag)
  • Deskripsi halaman (Meta description)

Google sendiri punya sebuah bot yang dinamakan GoogleBot, yang mana tugasnya adalah untuk mencari konten dan menganalisa setiap halaman yang mereka fetch (temukan), lalu pergi juga ke beberapa link yang ada di halaman yang dia fetch dengan harapan ada konten lain yang juga berkualitas di link tersebut.

Itulah yang disebut high quality backlink. Untuk masalah ini akan saya jelaskan lain waktu dalam artikel seputar backlink. Mari kita lanjut.


Indexing

Setelah menemukan sebuah konten baru dan selesai melakukan scanning terhadap konten tersebut, robot-robot ini akan menyimpan data tersebut dalam database mereka. Database ini adalah sebuah server yang sangat amat luar biasa besar penyimpanannya sehingga bisa menampung banyak sekali data dan sangat canggih prosesornya sehingga bisa memproses setiap data dengan sangat cepat. Kalau nanti kita perlu suatu informasi, mesin pencari tinggal membuka database mereka lalu mencarikan konten yang sekiranya paling sesuai dengan kebutuhan si pengguna.

Biasanya proses indexing ini cepat. Kurang dari 1 menit harusnya sudah beres. Tapi kadang, perlu waktu 3 sampai 4 hari karena saking banyaknya link yang harus diproses sama si robot. Ketika kita membuat sebuah website baru, biasanya proses indexingnya agak lama. Jadi jangan kaget dan heran kalau hal itu terjadi. Kalian harus tau, kalau settingan blog/ web kalian sudah benar, lambat laun Google dan mesin pencari lainnya akan mengindeks konten kamu, kok.

Meski begitu, kalau kamu masih aja nggak bisa tenang, kamu bisa 'merayu' si robot crawler untuk sesegera mungkin mengunjungi blog atau web kalian dan sesegera mungkin mengindeks konten kalian. Caranya adalah dengan melakukan Request Indexing.

Untuk penjelasan tentang cara merayunya saya akan sampaikan di lain konten, ya? Lanjut.


Positioning/ Ranking

Setelah menyimpan data konten yang baru didapat, para spiders akan menyortir data-data yang ada dan menentukan konten mana yang terbaik diantara yang terbaik, yang best of the best, core of the core, terpenting di antara yang lain untuk kategori yang sama.

Untuk kategori ini sendiri bisa diartikan sebagai kata kunci. Dan, uniknya adalah setiap susunan keyword adalah kategori yang berbeda pula. Contohnya gini:

Di keyword: "Nasi Goreng Bulu Ayam" konten kamu menduduki peringkat 1 hasil pencarian.

Di keyword: "Nasi Goreng Bulu-bulu ayam" konten kamu bisa jatuh menduduki peringkat 5 atau 6.

Aneh kah? Justru ini yang menarik. Dengan pattern seperti ini, semua orang punya kesempatan yang sama untuk masuk ke page one hasil pencarian Google yang mana itu jadi target dan impian sebagian besar Blogger.

Mengenai hal ini, masih banyak perbedaan pendapat di kalangan para SEO Expert dan para blogger. Karena di tahap ini, sukses atau tidaknya suatu konten ditentukan. Jika suatu konten bisa tembus halaman pertama SERP, maka konten itu dibilang berhasil, dan sebaliknya jika tidak.

Karena proses inilah, banyak web developer yang bertekad untuk mempelajari algoritma dan pattern dari search engine. Meski begitu, ada banyak sekali faktor yang berhubungan dengan pemeringkatan ini. Terlebih, setiap search engine raksasa nggak pernah secara resmi bilang tentang bagaimana mereka mengurutkan hasil SERP mereka.

Sampai saat ini, masih banyak expert yang mempelajari dan membahas soal algoritma mesin pencari, khususnya algoritma Google. Kenapa harus Google? Karena secara keseluruhan, jumlah pencarian di Google terbilang yang terbesar dibanding search engine raksasa lainnya, bahkan hampir 20 kali lebih besar dari Bing dan Yahoo!

Makanya, para suhu SEO berpendapat, kalau kita bisa merajai SERP Google, maka SERP di search engine yang lain nggak akan jadi masalah. Gitu!

Lalu, gimana cara mempelajari tentang algoritma mesin pencari? Kayanya itu harus dibahas terpisah, deh. Bisa dibikin jadi beberapa artikel, loh saking panjang dan rumitnya.


CLOSING STATEMENT

Ya, itulah penjelasan tentang cara kerja search engine atau mesin pencari. Penjelasan ini hanyalah penjabaran secara ringkas dan umum saja. Untuk lebih lengkap dan detail akan sangat sulit mengingat setiap search engine punya formula mereka sendiri-sendiri.

Tapi harapan saya, kita jadi sedikit lebih paham tentang SEO, dan kita jadi sadar bahwa SEO bukan sekedar backlink saja. Ada banyak faktor yang terlibat di dalamnya yang harus kita pelajari agar benar-benar sukses di dunia per-SEO-an.

Mungkin segitu aja yang bisa saya jelasin. Kalau ada yang kurang jelas, silahkan manfaatkan kolom komentar di bawah. Sampai jumpa di konten selanjutnya.

Nisfa Nurfadilah Rachmaniar
Halo, saya Nisfa. Saya adalah pengelola dari Ninura, sebuah online shop yang sekaligus media informasi dan hiburan melalui beberapa anak situsnya. Salam kenal, dan semoga betah di Ninura.

Related Posts

Post a Comment

Subscribe Our Newsletter