Yahoo, Google, atau Altavista adalah program penelusuran situs- situs di jaringan internet. Apa jadinya kalo program- program ini nggak ada?
Jaringan internet menampung berjuta-juta situs penting yang siap memberikan banyak informasi buat kita. Tapi bayangkan jika kita memilih milih tiap situs secara manual lewat web browser sampai nemuin situs yang cocok. Nah, inilah pentingnya program- program yang disebutin tadi. Program- program yang disebut merupakan istilah yang biasa disebut Search Engine dengan fungsinya menemukan kata kunci atau keyword yang kita cari.
Apa itu Search Engine?
Search engine sebenarnya situs internet juga, hanya saja merupakan situs jenis khusus. Situs ini nggak difokuskan sebagai penyedia informasi, tapi hanya membantu mencari situs lain yang informasinya lebih spesifik dengan hanya menuliskan keyword atau kata kunci tertentu.
Search engine memiliki kemampuan menampung alamat berjuta- juta situs penting yang ada didunia.
Saat ini kemampuan yang dimiliki search engine sudah berkembang sangat pesat. Bahkan sama sekali nggak kebayang kalo program yang pertama kali diperkenalkan pada tahun 1990. Waktu tahun itu search engine bernama Archie yang hanya dapat menampung beberapa ratus situs aja. Terus dalam waktu 10 tahun, search engine paling top mampu mendaftarkan ratusan juta situs kedalam listnya.
Cara kerja search engine
Ada 3 prinsip utama yang mendasari cara kerja search engine. Yaitu, mendata setiap situs internet dengan kata- kata kuncinya atau keyword, menyusun daftar kata kunci atau keyword yang ditemui dan alamat situsnya, lalu membantu user menemukan situs yang dicari sesuai dengan kata kunci keyword yang di input.
Setiap search engine nggak secara otomatis memiliki database situs- situs yang ada. Sebelumnya database ini di kumpulkan dulu dengan bantuan software yang disebut Spider. Proses inilah yang biasa disebut web crawling. Spider terlebih dulu menyusun indeks data dari situs awal. Tujuannya untuk memudahkan user serta search engine itu sendiri menemukan informasi yang dicari secara tepat. Biar lebih maksimal indeks data situs terdiri dari beberapa kata kunci ajaib atau keyword.
Masa depan search engine
Kalo kita lihat search engine yang ada saat ini system pencariannya secara literal aja. Artinya dari kata kunci keyword yang dimasukan belum tentu menampilkan situs- situs yang benar- benar spesifik. Makanya kadang jumlah situs yang muncul dari hasil pengetikan keyword mencapai angka ratusan ribu.
Makanya saat ini mulai dikembangkan proses pendataan situs yang menggunakan natural language queries. Dengan system ini database akan menampilkan beberapa situs yang benar- benar spesifik yang dicari dan cocok. (Kid –oest News : dari berbagai sumber).
Jaringan internet menampung berjuta-juta situs penting yang siap memberikan banyak informasi buat kita. Tapi bayangkan jika kita memilih milih tiap situs secara manual lewat web browser sampai nemuin situs yang cocok. Nah, inilah pentingnya program- program yang disebutin tadi. Program- program yang disebut merupakan istilah yang biasa disebut Search Engine dengan fungsinya menemukan kata kunci atau keyword yang kita cari.
Apa itu Search Engine?
Search engine sebenarnya situs internet juga, hanya saja merupakan situs jenis khusus. Situs ini nggak difokuskan sebagai penyedia informasi, tapi hanya membantu mencari situs lain yang informasinya lebih spesifik dengan hanya menuliskan keyword atau kata kunci tertentu.
Search engine memiliki kemampuan menampung alamat berjuta- juta situs penting yang ada didunia.
Saat ini kemampuan yang dimiliki search engine sudah berkembang sangat pesat. Bahkan sama sekali nggak kebayang kalo program yang pertama kali diperkenalkan pada tahun 1990. Waktu tahun itu search engine bernama Archie yang hanya dapat menampung beberapa ratus situs aja. Terus dalam waktu 10 tahun, search engine paling top mampu mendaftarkan ratusan juta situs kedalam listnya.
Cara kerja search engine
Ada 3 prinsip utama yang mendasari cara kerja search engine. Yaitu, mendata setiap situs internet dengan kata- kata kuncinya atau keyword, menyusun daftar kata kunci atau keyword yang ditemui dan alamat situsnya, lalu membantu user menemukan situs yang dicari sesuai dengan kata kunci keyword yang di input.
Setiap search engine nggak secara otomatis memiliki database situs- situs yang ada. Sebelumnya database ini di kumpulkan dulu dengan bantuan software yang disebut Spider. Proses inilah yang biasa disebut web crawling. Spider terlebih dulu menyusun indeks data dari situs awal. Tujuannya untuk memudahkan user serta search engine itu sendiri menemukan informasi yang dicari secara tepat. Biar lebih maksimal indeks data situs terdiri dari beberapa kata kunci ajaib atau keyword.
Masa depan search engine
Kalo kita lihat search engine yang ada saat ini system pencariannya secara literal aja. Artinya dari kata kunci keyword yang dimasukan belum tentu menampilkan situs- situs yang benar- benar spesifik. Makanya kadang jumlah situs yang muncul dari hasil pengetikan keyword mencapai angka ratusan ribu.
Makanya saat ini mulai dikembangkan proses pendataan situs yang menggunakan natural language queries. Dengan system ini database akan menampilkan beberapa situs yang benar- benar spesifik yang dicari dan cocok. (Kid –oest News : dari berbagai sumber).