Artikel, Google

Apa Sebenarnya Fungsi Search Engine dan Bagaimana Cara Kerjanya?

search engine

Berbicara soal search engine, kebanyakan orang pasti sudah tau apa itu search engine. Dalam kehidupan kita banyak membutuhkan fungsi dari search engine tersebut. Dengan search engine dapat mempermudah kita untuk mepermudah dalam melakukan pekerjaan atau sesuatu.

Tapi buat kamu yang belum paham, atau asing mendengar kata search engine, yuk kita simak hal berikut ini.

Fungsi Search Engine

  1. Memudahkan mencari alamat website atau blog
    Search engine atau mesin pencari memiliki kapasatitas yang sangat besar dan akan terus disesuaikan dengan pertambahan jumlah pengguna internet sehingga pada mesin pencari tersebut memiliki bermacam-macam informasi yang dibutuhkan oleh orang-orang yang menggunakan mesin pencari tersebut.
  1. Sarana mencari informasi
    Dengan memiliki kapasitas yang sangat besar mesin pencari memiliki bergam informasi di seluruh dunia yang dapat kita ketahui di internet
  1. Efektif untuk Browsing
    Lebih memudahkan kita untuk mencari sesuatu informasi dari pada kita mencarinya satu persatu di website atau blog karena bisa anda bayangkan betapa banyaknya website dan blog dalam dunia internet.
  1. Memiliki bahasa pencarian yang lengkap
    Mesin pencari digunakan diseluruh dunia oleh karena itu fasilitas mesin pencari dilengkapi dengan berbagai bahasa-bahasa di dunia.
  1. Sumber finansial
    Mesin pencari juga dapat difungsikan sebagai sumber penghasilan. Misalnya memasang iklan, setiap pengguna yang mencari informasi akan menulis kata-kata kunci informasi yang mereka cari, nah iklan-iklan yang berkaitan dengan kata yang mereka tuliskan akan muncul sehingga pengunjung akan tertarik juga untuk melihat iklan-iklan tersebut.

Lalu bagaimana cara kerja search engine tersebut?

Cara Kerja Search Engine

Search engine memiliki sebuah bagian software atau fungsi yang disebut dengan crawler. Kadang crawler disebut juga dengan spider, bot atau robot. Aktivitas yang dilakukan sebuah crawler disebut dengan crawling.

search engine crawler

Crawling adalah proses saat membaca konten halaman website melacak dan menemukan link yang terdapat dari setiap halaman yang ditemuinya. Tugasnya adalah untuk mengevaluasi link berdasarkan alamat yang ditentukan dari awal.

Crawler selalu mengikuti link dan mencoba menemukan dokumen yang belum dikenal oleh search engine.

Google mempunyai perangkat komputer super canggih untuk menjalankan robot-robot atau spider dalam merayapi dan mengambil data pada miliaran laman web. Google memiliki beberapa crawler, yang paling dikenal adalah Googlebot.

Kalau dilihat sepintas, cara kerja mesin pencari ini mirip dengan kebanyakan pengguna biasa. Mengunjungi situs lalu melusuri tautan demi tautan.

Ada satu hal yang menarik disini, setiap pemilik situs ternyata dapat mengatur dan membatasi Googlebot dalam merayapi dan menelusuri situs.

Misalnya dengan mengatur halaman-halaman tertentu saja untuk dirayapi. Pemilik juga bahkan bisa menolaknya untuk sama sekali tidak dikunjungi Googlebot.

Ketika pengguna menuliskan kata kunci (keyword) pada mesin pencari, maka sistem Google akan memproses pencarian dengan mencari, mencatat dan menyusun kata dalam sebuah data base yang sangat besar. Dengan cara mengambil informasi pada situs web termasuk dalam tag konten utama dan atribut, seperti judul tag dan atribut ALT dan hasilnya nanti adalah jawaban dari kata kunci yang diinginkan oleh pengguna tadi.

Jumlah situs web yang terindeks mencapai 60 triliun dengan besar ukuran file mencapai 100 juta gigabyte.

Jadi pada intinya indexing adalah komponen yang melakukan aktivitas untuk menguraikan masing-masing laman dan meneliti berbagai unsur, seperti teks, headers, struktur atau fitur dari gaya penulisan, tag HTML khusus.

Algoritma Search Engine

Kalau dilihat dari namanya, algoritma/algoritmik adalah istilah dari matematika yang artinya sebuah proses perhitungan.

Dalam istilah mesin pencari, algoritma mempunyai arti sebuah prosedur atau langkah demi langkah untuk penghitungan, pemrosesan data, dan penalaran otomatis.

Seperti dijelaskan pada laman Google bahwa Googlebot atau spider tersebut menggunakan proses algoritmik yaitu sebuah program komputer yang menentukan mana situs yang harus ditelusuri (crawling), seberapa sering, dan sebanyak apa laman yang diambil dari sebuah situs.

Melawan Spam

Setelah Googlebot melakukan pekerjaannya dari mulai indexing dan crawling lalu menghitung berapa banyak situs yang musti dirayapi, seberapa sering spider tersebut merayap maka langkah selanjutnya adalah fighting Spam.

Sesuai namanya, fighting spam berarti berperang melawan spam/pesan sampah.

Inilah hebatnya mesin pencari Google. Google menghadirkan beberapa slide yang mengungkapkan bagaimana sistem mampu melawan situs berisikan spam atau pesan sampah.

Dengan kecanggihan mesin ini Google mampu memilih dan memilah-milah konten mana yang bermanfaat dan konten mana yang hanya berisi spam.

Bahkan mesin ini dapat sekaligus menghapus konten yang telah dianggap spam tadi.