Kamis, 12 Juni 2014

Analisis Web dan Ekonomi Web




Bab 7

Analisis Web
 

 

•     Pengukuran Web (ukuran, unjuk kerja)
Salah satu teknik mengukur dan menguji suatu kinerja web adalah dengan mengukur pengalaman seseorang atau user experience pengunjung situs yang berinteraksi dengan halaman-halaman web yang berada di internet (Keynote System, Inc 2010).

Kinerja suatu web atau web performance sangat dipengaruhi oleh beberapa komponen-komponen dasar yang dibagi menjadi dua bagian penting, yaitu (1) dilihat dari gambaran transaksi web atau perspective transaction dan (2) gambaran komponen aplikasi atau application component perspective (Keynote System, Inc 2010). Transaksi web atau web transaction lebih menitikberatkan pada sisi pengalaman pengguna atau user experience sedangkan komponen aplikasi lebih menitikberatkan pada komponen jaringan komputer atau computer network.

Pengalaman Pengguna (User experience), diantaranya adalah (Keynote System, Inc 2010) :
  • Time to opening page (time_to_opening_page), maksudnya adalah mengukur, dari sisi pengguna, waktu yang dibutuhkan pada saat pertama kali membuka halaman web. Waktu dimulai dari aksi pertama setelah internet agent memutuskan untuk berpindah ke halaman berikutnya. Waktu berakhir ketika pesan opening page ditampilkan di Web browser status bar.
  • Page download (page_download_time), maksudnya adalah waktu yang dibutuhkan antara ketika Web browser membuat sinyal opening page dan ketika Web browser akan menampilkan pesan done di status bar.

Tools-tools pengukur analisis web :
  • SEO (Search Engine Optimization) adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.
  • GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan. 

     Kelebihan dari GTmetrix : 
  • Dapat membandingkan beberapa URL secara bersamaan
  • Dapat menjadwalkan pengecekan web/blog secara otomatis dan dapat menyimpan laporan  

     Kekurangan dari GTmetrix: 
  • Dalam penggunaan GTmetrix harus menggunakan koneksi internet yang cepat.
•     Crawlers
Crawler adalah sebuah program/script otomatis yang memproses halaman web. Sering juga disebut dengan web spider atau web robot. Ide dasarnya sederhana dan mirip dengan saat anda menjelajahi halaman website secara manual dengan menggunakan browser. Bermula pada point awal berupa sebuah link alamat website dan dibuka pada browser, lalu browser melakukan request dan men-download data dari web server melalui protokol HTTP.

Setiap Hyperlink yang ditemui pada konten yang tampil akan dibuka lagi pada windows/tab browser yang baru, demikian proses terus berulang. Nah sebuah web crawler mengotomatisasikan pekerjaan itu.

Kesimpulannya, dua fungsi utama web crawler adalah: 
  • Mengidentifikasikan Hyperlink.
  • Hyperlink yang ditemui pada konten akan ditambahkan pada daftar visit, disebut juga dengan istilah frontier.
  • Melakukan proses kunjungan/visit secara rekursif.
  • Dari setiap hyperlink, Web crawler akan menjelajahinya dan melakukan proses berulang, dengan ketentuan   yang disesuaikan dengan keperluan aplikasi.


Cara kerja Crawler

Cara kerja Crawler , pertama robot mengumpulkan informasi pada halaman blog/web dan semua media internet yg bisa diindeks oleh search engine. Robot tersebut kemudian membawa informasi yg didapatnya ke data center. Di data center, data tersebut kemudian di oleh sedemikian rupa, apabila memenuhi persyaratan, maka dia akan dimasukkan ke dalam indeks. Nah, proses yg dilakukan oleh user search engine adalah memanggil indeks-indeks tersebut, apabila indeks2 memiliki kesesuaian dengan yg dicari user (dan bila memiliki peringkat yg baik), di akan ditampilkan di halaman utama search engine (berperingkat).

Cara agar website/blog masuk dalam Crawler :

Pertama : Membuat sitemap dan atau daftar isi
Sitemap (peta situs) blog berfungsi membantu search engine bot menjelajahi, menemukan dan mengindeks konten blog kita. Jika blog anda berplatform wordpress.org, cara paling mudah membuat sitemap adalah dengan memasang plugin bernama Google XML sitemaps. Sitemap sebenarnya hampir sama dengan halaman daftar isi yang sering kita buat di blog, hanya sitemap berisi kode-kode HTML yang dibaca oleh bot sedangkan daftar isi untuk dibaca oleh manusia. Jika anda ingin sitemap yang juga berfungsi sebagai daftar isi, gunakan plugin bernama Dagon Sitemap Generator. Beberapa themes seperti GoBlog Themes sudah menyediakan sitemap secara default seperti ini: Sitemap.

Kedua : Mendaftarkan sitemap di Google Webmaster Tools
Sitemap blog anda perlu didaftarkan di Google Webmaster Tools. Google webmaster sendiri penting diikuti oleh semua pemilik blog agar anda dapat menganalisa semua data yang berkenaan dengan blog anda. Melalui uji sitemap, kita bisa mengetahui konten mana di blog yang belum terindeks Google. Daftarkan dulu blog anda di Google Webmaster Tools.

Berikut ini adalah contoh-contoh dari Crawler:

Teleport Pro
Salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.

Googlebot
Merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini.

Yahoo!Slurp
Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.

•     Search engines
Search engine adalah istilah atau penyebutan bagi website yang berfungsi sebagai mesin pencari, mesin pencari ini akan menampilkan informasi berdasarkan permintaan dari user pencari konten, konten yang ditampilkan adalah konten yang memang sudah terindex dan tersimpan di database server search engine-nya itu sendiri.

Saat ini sudah mulai banyak website search engine, namun dari sekian banyak search engine yang ada saat ini berikut ini beberapa search engine yang terbilang popular, seperti Yahoo!, Alltheweb, MSN, AskJeeves, Google, AltaVista, dan Lycos.

Yahoo!

(http://www.yahoo.com)

Salah satu portal terbesar di Internet, selain MSN., dan juga salah satu mesin pencaru tertua. Halaman utamanya sendiri tidak terlalu ramah untuk pencarian, tetapi Yahoo! menyediakan search.yahoo.com untuk itu. Yahoo! menggunakan jasa Google untuk mencari informasi di web, ditambah dengan informasi dari databasenya sendiri. Kelebihan Yahoo! adalah direktorinya. Yahoo! juga menyediakan pencarian yellow pages dan peta, yang masih terbatas pada Amerika Serikat. Yahoo juga menyediakan pencarian gambar.

Alltheweb

(http://www.alltheweb.com)

Keunggulan Alltheweb adalah pencarian file pada FTP Server. Tidak seperti web, FTP adalah teknologi internet yang ditujukan untuk menyimpan dan mendistribusikan file, biasanya program, audio atau video. Web sebenarnya lebih ditujukan untuk teks. Sejauh ini, hanya AllTheWeb yang menyediakan jasa pencarian file.

MSN

(http://search.msn.com)

Mesin pencari dari Microsoft Network ini menawarkan pencarian baik dengan kata kunci maupun dari direktori. Pemakai Internet Explorer kemungkinan besar sudah pernah menggunakan mesin pencari ini. Situs Searchenginewatch mencatat MSN sebagai mesin pencari ketiga populer setelah Google dan Yahoo! Tak ada pencarian image, atau news. Menyediakan pencarian peta, yellow pages, white pages, pencarian pekerjaan, rumah.

Google

(http://www.google.com)

Selain pencarian web, Google juga menyediakan jasa pencarian gambar, pencarian ?berita serta pencarian pada arsip USENET (newsgroup), serta direktori, seperti Yahoo! Kelemahannya terletak pada tidak tersedianya pencarian file, video, dan audio. Keunggulan Google terutama adalah pada pencarian teks, terutama dari algoritma PageRank, database-nya yang besar serta banyaknya jenis file yang diindeksnya.


Perbedaan Serach Engine Yang Ada

Ada banyak sekali contoh perbedaan search engine, disini hanya akan ada beberapa yang saya jelaskan. Sebagai contoh, untuk Yahoo! dan Bing, On Page Keyword merupakan faktor yang paling penting, sedangkan untuk Google, Link-lah yang merupakan faktor yang sangat penting.

Selain itu, halaman website untuk Google adalah seperti wine – semakin tua umurnya, semakin bagus peringkatnya. Sedangkan untuk Yahoo! biasanya tidak mementingkan hal tersebut. Maka dari itulah, anda memerlukan waktu yang lebih banyak untuk membuat website anda matang untuk berada di peringkat atas di Google, daripada di Yahoo!.

Kerja Sebuah Search Engine

Jika anda ingin mencari sesuatu,tentunya telah memiliki sebuah kata kunci ( keyword ) untuk sesuatu yang anda cari.Sebuah search engine bekerja dengan menerima kata kunci dari pengguna,memproses dan menampilkan hasilnya.Akan lebih mudah dibayangkan jika anda terbiasa melakukan pemrograman data base dengan menggunakan Query atau SQL,karena tentunya anda telah terbiasa menampilkan data pada table-table dengan kriteria tertentu.Tapi,Web Search Engine yang tersedia saat ini telah memiliki kemampuan yang lebih baik dalam menerima dan mengolah keyword dari pengguna.

Bagaimana search engine menampilkan informasi dari gudang data yang sedemikian besar dalam waktu yang singkat..? Sebagaiman juga dengan pemrograman database,menggunakan indeks adalah salah satu cara ampuh untuk meningkatkanperforma kecepatan.Pencarian juga sudah tidak terbatas pada pencarian dokumen,tetapi sangat variatif tergantung pada kebutuhan anda.Anda dapat mencari gambar,musik,software, atau dokumen dengan fornat tertentu.

Hal lain yang tidak kalah penting bagaiman search engine ( terutama web search engine ) mengumpilkan semua data tersebut .Jangan kaget jika anda cukup aktif menulis pada forum.blog,mailing list atau mungkin sebagai spammer maka search engine dapat menampilkan ke seluruh dunia.Search engine mampu menemukan tulisan anda karena adanya metode pengambilan informasi ( Informatio Retrival/IR) yang mencari metadata dan database yang tersebar di internet.Sebagai contoh,pada saat anda mengetikkan sebuah komentar pahit pada seseorang dan melakukan submit pada sebuah halaman website,halaman web yang berisi komentar anda telah tersedia bagi aplikasi-aplikasi IR untuk dibaca siapa saja yang melakukan pencarian dengan keyword yang tepat.

•    Web archiving

Web Archiving adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang. Besarnya ukuran Web membuat arsiparis web umumnya menggunakan web crawlers untuk pengumpulan secara otomatis. Organisasi pengarsip web terbesar yang menggunakan ancangan perangkak web ini adalah Internet Archive yang berupaya memelihara arsip dari seluruh Web. Perpustakaan nasional, arsip nasional, dan berbagai konsorsium organisasi lain juga terlibat dalam upaya pengarsipan konten Web yang memiliki nilai penting bagi mereka. Perangkat lunak dan layanan komersial juga tersedia bagi organisasi yang ingin mengarsipkan konten web mereka sendiri untuk berbagai keperluan.

Cara kerja web archiving:

A.     Remote Harvesting
Merupakan cara yang plaing umum dalam web archiving dengan menggunkana teknik web crawlers yang secara otomatis melakukan proses pengumpulan halaman web. Metode yang digunakan web crawler untuk mengakses halaman web  sama semeprti user mengakses halaman web menggunakan wob browser.  

Contoh web crawler yang digunakan dalam web archiving seperti :
  • Heritrix
  • HTTrack
  • Wget

B.     On-Demand
Ada banyak layanan yang dapat digunakan sebagai sumber archive web "on-demand", menggunakan teknik web crawling. 
Contohnya seperti:
  • Aleph Archives
  • archive.is
  • Archive-It
  • Archivethe.net
  • Compliance WatchDog by SiteQuest Technologies
  • freezePAGE snapshots
  • Hanzo Archives
  • Iterasi
  • Nextpoint
  • Patrina
  • PageFreezer
  • Reed Archives
  • Smarsh Web Archiving
  • The Web Archiving Service
  • webEchoFS
  • WebCite
  • Website-Archive.com

C.     Database archiving
Databasa Archiving mengacu pada metode untuk menarsipkan konten database-driven websites.  Hal ini biasanya memerlukan ekstraksi konten database ke standard schema, sering menggunakan XML. Setelah disimpan dalam format standar, konten yang diarsipkan dari beberapa databse dapat tersedia untuk diakses dengan menggunakan single access system. Motode ini digunkanan seprti pada DeepArc dan  Xinq masiing masing dikembangkan oleh Bibliothèque nationale de France dan  National Library of Australia.

D.     Transactional archiving
Transactional archiving merupakan event-driven yang mengumpulkan  transaksi  yang berlangsung antara web server dan web browser.  Hal ini terutama digunakan untuk menjamin keaslian dari isi suatu website, pada tanggal tertentu. Hal ini sangatlah penting untuk organisasi atau perusahaan yang perlu mematuhi persyaratan hukum atau peraturan untuk mengungkapkan dan mempertahankan informasi.
Sistem yang digunakan pada transactional archiving biasanya beroperasi dengan memeriksa  setiap permintaan HTTP dan respon dari web server, menyaring setiap aktifitas untuk menghilangkan konten yang duklikat dan secara permanen disimpan sebagai bitstreams. Sebuah sistem transactional archiving membutuhkan instalasi perangkat lunak pada web server, dan karena hal itu maka metode ini tidka dapat mengumpulkan konten dari remote website.


Bab 8

Ekonomi Web




Seiring dengan perkembangan zaman, tidak dapat dipungkiri lagi bahwa kini teknologi merupakan kebutuhan kita dalam kehidupan sehari. Semua aspek kehidupan pada dewasa ini hampir semuanya menggunakan teknologi, termasuk pada aspek ekonomi. Segala aktifitas perekonomian kini telah banyak yang menggunakan fasilitas tekonolgi seperti halnya internet. Dengan bantuan internet, perekenomian terasa lebih mudah, jarak dan waktu bukanlah hal yang dapat membatasi lagi antara penjual dan pembeli. Dengan internet juga seseorang dapat juga membuat sebuah ekonomi web. Apa saja yang terkait dengan ekonomi web itu? Mari kita bahas dalam bab ini satu per satu.

•     Iklan, termasuk lintas laman iklan
Iklan merupakan salah satu cara untuk memperkenalkan barangan, perkhidmatan, peluang pekerjaan, inspirasi dan maklumat kepada yang ingin disampaikan.

Karakteristik Lingkungan Periklanan
  • kekuatan lingkungan selalu berubah
  • perubahan lingkungan menciptakan ketidakpastian, ancaman, peluang (dalam dinamika periklanan)
  • tanggapan terhadap perubahan lingkungan:
  • reaktif apabila tdk dpt mengendalikan elemen-2 lingkungan, caranya selalu menyesuaikan diri dgn perkembangan yg ada
  • proaktif apabila memiliki sejumlah kendali dan resources, caranya dgn mengambil langkah-2 utk melakukan perubahan yg menghasilkan lingkungan yg lebih kondusif


Iklan Terhadap Pengaruh Ekonomi

1. Iklan sebagai transaksi atau peristiwa yang ekonomi yang mampu mempengaruhi kehidupan ekonomi masyarakat.
  • Iklan sebagai kegiatan jual beli (untuk menyampaikan pesan, pengiklan harus membayar media yang dipilih).
  • Memberi keuntungan kepada agen iklan.
  • Membuka lapangan kerja.
  • Iklan menjaadi salah satu bidang bisnis yang menjanjikan.
  • Industri periklanan menjadi salah satu pilihan kerja yang menjanjikan.
  • Seiring dicanangkannya industri kreatif, iklan menjadi salah satu profesi bergengsi.
  • Saat krisis ekonomi 1998, industri periklanan merupakan satu-satunya industri yang cepat keluar dari keterpurukan.
  • Data AC Nielsen: belanja iklan 2001 Rp 9,717 triliun à 2002 Rp 12 triliun (ada kenaikan 200 % dari belanja iklan 1997). Fantastis!
  • Tahun 1997 ada 179 merek yang diiklankan di media utama nasional à Tahun 2000 ada 237 merek (Cakram, Juni 2000). Artinya kalangan industri masih memberikan kepercayaan melakukan promosi produk melalui iklan.
  • Periklanan mendatangkan pajak besar bagi daerah.

2. Dampak (Cakram, Juni 2000). Artinya kalangan industri masih memberikan kepercayaan melakukan promosi .
  • pesan yang ditimbulkan.
  • Meningkatkan pemasaran produk.

•     Pencarian
Pencarian pada ekonomi web pada umunya adalah melalui penjualan online. Penjualan online adalah melakukan aktifitas penjualan dari mencari calon pembeli sampai menawarkan produk atau barang dengan memanfaatkan jaringan internet yang didukung dengan seperangkat alat elektronik sebagai penghubung dengan jaringan internet.

Pengaruhnya: 
  • Kehadiran e-commerce yang terus berkembang lambat laun akan merubah   kebiasaan bertransaksi sebagian masyarakat kita. Para produsen maupun konsumen akan terbiasa menjual maupun membeli produk dan jasa secara online ketimbang melangkahkan kaki ke outlet penjualan. Ruang dan waktu bukan lagi menjadi kendala. Sebuah perusahaan di Indonesia memiliki kesempatan yang sama dengan kalangan bisnis asing untuk menjalin kerjasama atau ingin mengakses pasar mancanegara.
  • seseorang lebih mudah untuk mengembangkan usahanya seperti dengan menjual barang dan jasa via online. Banyak sekali situs yang menyediakan jual beli online. Salah satu yang terbesar adalah TokoBagus(dot)com. Dengan adanya Internet pula kita tidak perlu repot pergi untuk membeli barang yang kita butuhkan. Tinggal pesan saja melalui transaksi ataupun dengan cash.
  • Kemajuan teknologi akan meningkatkan kemampuan produktivitas dunia industri baik dari aspek teknologi industri maupun pada aspek jenis produksi. Investasi dan reinvestasi yang berlangsung secara besar-besaran yang akan semakin meningkatkan produktivitas dunia ekonomi. Di masa depan, dampak perkembangan teknologi di dunia industri akan semakin penting. Tanda-tanda telah menunjukkan bahwa akan segera muncul teknologi bisnis yang memungkinkan konsumen secara individual melakukan kontak langsung dengan pabrik sehingga pelayanan dapat dilaksanakan secara langsung dan selera individu dapat dipenuhi.

•     Auctioning dalam pencarian dan online auctions

mekanisme pasar dimana penjual menawarkan produk dan pembeli melakukan penawaran secara berurutan secara kompetitif hingga harga terakhir dicapai. Online auction menerapkan konsep dynamic pricing, yaitu harga yang berubah berdasarkan pada hubungan penawaran dan permintaan pada waktu tertentu.

Ada empat kategori utama dynamic pricing yaitu: 
  • Satu pembeli, satu penjual
  • Satu penjual, banyak pembeli potensial
  • Satu pembeli, banyak penjual potensial
  • Banyak penjual, banyak pembeli


Manfaat dari Online Auction dibagi jadi 3 bagian, yaitu :

Manfaat bagi penjual : 
  • Meningkatkan pendapatan dengan memperluas pasar dan mempersingkat waktu
  • Menetapkan harga optimal yang ditentukan oleh pasar
  • Meningkatkan hubungan dan loyalitas pelanggan

Manfaat bagi pembeli : 
  • Kesempatan untuk menemukan barang yang dicari
  • Hiburan bagi pembeli
  • Pembeli bisar menawar dari manapun, bahkan dengan telepon selular

Manfaat bagi Auctioner : 
  • Pembelian yang lebih tinggi.
  • Pembeli cenderung untuk berkunjung lebih lama dan kembali lebih sering.
  • Ekspansi bisnis lelang.


Sumber :






 
Anggota Kelompok :
- Rizky Adi Wibowo                (56412584)
- Dennis Maas Ramli              (51412844)
- Hilman Kurniawan                (53412480)
- Freddy Lorenzo                    (53412039)