1.
proses analisis web dan parameter
pengukurannya
Analisis Web / Pengukuran Web adalah pengukuran, pengumpulan, analisis dan
pelaporan data internet untuk tujuan memahami dan mengoptimalkan penggunaan
web. Untuk menganalisa suatu website perlu di ketahui kriteria apa saja yang
akan di analisa. Berikut adalah parameter untuk menilai sebuah web.
-
Accesibility = bagian yang menjelaskan seberapa baik sebuah web dalam aspek
aksesnya.
-
Readibility = bagian yang menjelaskan apakah web tersebut nyaman untuk dibaca
dan dipahami oleh pengakses
- Speed =
bagian yang menjelaskan kecepatan tampilnya sebuah situs, . tentunya semakin
cepat situs itu melakukan loading time maka semakin baik pula kualitasnya.
- Content =
bagian ini adalah bagian paling terpenting dari sebuah penilaian web. Bagian
ini menjelaskan tentang isi dari web tersebut
- Technology
= bagian ini yang menjelaskan teknologi apa saja yang digunakan untuk mendesai
suatu web.
Parameter
Pengukuran Web
Salah satu teknik mengukur dan menguji suatu kinerja web adalah dengan mengukur
pengalaman seseorang atau user experience pengunjung situs yang berinteraksi
dengan halaman-halaman web yang berada di internet (Keynote System, Inc 2010).
Kinerja suatu web atau web performance sangat dipengaruhi oleh beberapa
komponen-komponen dasar yang dibagi menjadi dua bagian penting, yaitu
(1)
dilihat dari gambaran transaksi web atau perspective transaction dan
(2)
gambaran komponen aplikasi atau application component perspective (Keynote
System, Inc 2010). Transaksi web atau web transaction lebih menitikberatkan
pada sisi pengalaman pengguna atau user experience sedangkan komponen aplikasi
lebih menitikberatkan pada komponen jaringan komputer atau computer network.
Hasil pencarian juga memiliki variasi data yang
ditampilkan, seperti bentuk tulisan, gambar, video, dan bentuk tampilan
lainnya. Dari hasil pencarian yang ada akan menampilkan data sesuai dengan
urutan yang telah ditentukan oleh Algoritma Search Engine.
Jadi untuk dapat masuk ke urutan halaman pertama Search Engine tidaklah mudah.
Banyak perhitungan dan tata cara yang harus dilakukan untuk dapat masuk ke
halaman pertama suatu Search Engine. Salah satu cara yang dapat dilakukan
adalah dengan menjalankan teknik SEO pada website
bisnis anda.
Search Engine Google sendiri muncul di akhir tahun 1997. Ketatnya
persaingan dengan berbagai Search Engine yang sudah lebih dahulu ada, tidak
membuat Google menyerah begitu saja. Pada tahun 2000 Search Engine Yahoo sempat
menduduki posisi peringkat puncak, namun hal itu hanya sementara
dikarenakan Google berhasil mencapai peringkat tersebut. Google pun
diperhitungkan dan dipandang sebagai Search Engine yang utama sampai sekarang
ini. Data tersebut kemudian akan disimpan ke dalam
Server yang nantinya dapat digunakan untuk pencaharian data yang diinginkan.
Data yang tersimpan dapat berupa halaman suatu website, dari teks, gambar,
video dan informasi lainnya. Namun tidak semua halaman suatu website dapat
ditemukan, dikarenakan adanya peraturan webmaster yang dapat membuat halaman
website untuk dipublikasikan atau hanya untuk private website atau blog. Mengumpulkan
web.
- Content
Analysis = menganalisis isi yang ditampilkan pada aplikasi berbasis web. Isi
informasi ini dapat berupa teks, grafik, audio maupun video
- Interaction
Analysis = Analisis yang menunjukkan hubungan antara web dengan penggunanya.
- Functional
Analysis = Menentukan operasi y.ang akan diaplikasikan pada WebApp dan termasuk
di dalamnya fungsi-fungsi yang melakukan proses. Semua operasi dan fungsi
dideskripsikan secara detail.
-
Configuration Analysis = Konfigurasi yang digunakan pada aplikasi berbasis web,
internet, intranet, atau extranet. Selain itu analisis ini juga meliputi relasi
database dengan web jika diperlukan
2. CRAWLERS
Web crawler adalah suatu program atau script otomat yang relatif simple,
yang dengan metode tertentu melakukan scan atau “crawl” ke semua
halaman-halaman Internet untuk membuat index dari data yang dicarinya. Nama
lain untuk web crawl adalah web spider, web robot, bot, crawl dan automatic
indexer.
Web
crawl dapat digunakan untuk beragam tujuan. Penggunaan yang paling umum adalah
yang terkait dengan search engine. Search engine menggunakan web crawl untuk
mengumpulkan informasi mengenai apa yang ada di halaman-halaman web publik.
Tujuan utamanya adalah mengumpukan data sehingga ketika pengguna Internet
mengetikkan kata pencarian di komputernya, search engine dapat dengan segera
menampilkan web site yang relevan.
CONTOH WEB CRAWLER
Beberapa contoh web crawler:
1. Teleport Pro
Salah satu software web crawler untuk keperluan offline
browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi
internet tidak semudah dan secepat sekarang. Software ini berbayar dan
beralamatkan di http://www.tenmax.com.
2. HTTrack
Ditulis dengan menggunakan C, seperti juga Teleport
Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi
sebuah mirror pada harddisk anda, agar dapat dilihat secara
offline. Yang menarik software ini free dan dapat di download pada website
resminya di http://www.httrack.com
3. Googlebot
Merupakan web crawler untuk membangun index pencarian yang digunakan oleh search
engine Google. Kalau website anda ditemukan orang melalui Google,
bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya,
sebagian bandwidth anda akan tersita karena proses crawling ini.
4. Yahoo!Slurp
Kalau Googlebot adalah web crawler andalan Google,
maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan
oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.
5. YaCy
Sedikit berbeda dengan web crawler lainnya di atas, YaCy
dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan
menggunakan java, dan didistribusikan pada beberapa ratus mesin
computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk
berbagi index, sehingga tidak memerlukan server central. Contoh search engine
yang menggunakan YaCy adalah Sciencenet (http://sciencenet.fzk.de), untuk pencarian dokumen di bidang sains.
CARA KERJA
WEB CRAWLER
1. Mesin pencari web bekerja dengan
cara menyimpan informasi tentang banyak halaman web, yang diambil langsung
dari WWW. Halaman-halaman ini diambil dengan web crawler — browser web
otomatis yang mengikuti setiap pranala yang dilihatnya. Isi setiap halaman lalu
dianalisis untuk menentukan cara mengindeksnya (misalnya, kata-kata diambil
dari judul, subjudul, atau field khusus yang disebut meta
tag). Data tentang halaman web disimpan dalam sebuah database indeks untuk
digunakan dalam pencarian selanjutnya.
2.
Mesin pencari juga menyimpan dan memberikan informasi hasil pencarian
berupa pranala yang merujuk pada file, seperti file audio, file
video, gambar, foto dan sebagainya.
3. Ketika
seorang pengguna mengunjungi mesin pencari dan memasukkan query,
biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan
daftar halaman web yang paling sesuai dengan kriterianya.
3.
SEARCH
ENGINES
Pengertian Search Engine
Search Engine (Mesin Pencari) adalah sebuah sistem software yang di desain
untuk mencari berbagai informasi yang tersimpan dalam layanan World Wide Web
(WWW), File Transfer Protocol (FTP), Mailing List, atau News Group yang berada
di dalam sebuah atau sejumlah Server dalam suatu batasan jaringan. Hasil dari
pencarian akan menampilkan berbagai data informasi yang bersumber dari sebuah
Website, Blog, Forum tertentu. Hasil dari pencarian sering disebut sebagai
Search Engine Result Pages (SERPs).
Sejarah Singkat Search Engine
Seiring dengan perkembangan dunia maya, Search Engine pun memiliki
perkembangan yang cukup baik dari tahun ke tahun. Salah satu Search Engine yang
cukup terkenal dan banyak dipakai oleh banyak negara adalah Search Engine
Google. Namun ada beberapa kelompok membuat Search Engine sendiri untuk
negaranya, seperti Search Engine Yandex yang berasal dari Rusia dan telah
beroperasi sejak tahun 1997. Kemudian ada Search Engine Baidu yang beroperasi
sejak tahun 2000. Baidu didirikan di kampus Baidu yang letaknya di Distrik
Haidan, Beijing, RRC. Search Engine lain yang juga terkenal adalah Bing, Yahoo,
ASK, MSN, AOL, dan lainnya.
Cara Kerja Search Engine
Kemudian bagaimana cara kerja dari Search Engine yang mampu menampilkan
berbagai data informasi yang akurat sesuai dengan kata kunci yang kita berikan?
Search Engine Google memiliki software yang bernama Web Crawlers atau disebut
juga Googlebot. Cara kerja
Software ini, yaitu mengambil halaman-halaman website secara otomatis dengan
mengikuti setiap link bersifat Dofollow. Kemudian setiap
halaman tersebut akan dianalisa untuk dapat menentukan cara indeks, seperti
pembacaan teks pada judul, subjudul, dan bagian khusus yang disebut Meta Tag.
4. Web Archiving
Atau pengarsipan web adalah
proses mengumpulkan bagian World Wide Web untuk
memastikan informasi dipelihara dalam arsip untuk
periset, sejarawan, dan masyarakat masa depan. [1] Web
arsitektural biasanya menggunakan perayap web untuk
penangkapan otomatis karena ukuran dan jumlah informasi yang besar di Web. Organisasi
pengarsipan web terbesar yang berbasis pada pendekatan perayapan massal adalah Arsip Internet yang
berusaha mempertahankan arsip seluruh Web.
International
Web Archiving Workshop (IWAW), yang dimulai pada tahun 2001, telah menyediakan
platform untuk berbagi pengalaman dan bertukar gagasan. Pendirian selanjutnya
dari International Internet Preservation Consortium (IIPC), pada tahun 2003,
telah sangat memfasilitasi kolaborasi internasional dalam mengembangkan
perangkat standar dan open source untuk pembuatan arsip web. Perkembangan ini, dan
semakin berkembangnya budaya manusia yang tercipta dan dicatat di web,
bergabung untuk membuatnya tak terelakkan sehingga semakin banyak perpustakaan
dan arsip harus menghadapi tantangan pengarsipan web. Perpustakaan nasional, arsip nasional dan
berbagai konsorsium organisasi juga terlibat dalam pengarsipan konten Web yang
penting secara budaya.
Perangkat
lunak dan layanan pengarsipan web komersil juga tersedia bagi organisasi yang
perlu mengarsipkan konten web mereka sendiri untuk kepentingan perusahaan,
peraturan, atau hukum.
Web
arsiparis umumnya mengarsipkan berbagai jenis konten web termasuk halaman web HTML , style sheet , JavaScript , gambar ,
dan video . Mereka juga
mengarsipkanmetadata tentang
sumber daya yang dikumpulkan seperti waktu akses, tipe MIME ,
dan panjang konten. Metadata ini berguna
dalam membangun keaslian dan asal koleksi yang
diarsipkan.
daftar pustaka
https://en.wikipedia.org/wiki/Web_archiving
Tidak ada komentar:
Posting Komentar