LA PRAKTIKUM INTERNET
Sejarah Internet Indonesia
|
|
Sejarah internet Indonesia dimulai pada awal tahun 1990-an. Saat itu jaringan internet di Indonesia lebih dikenal sebagai paguyuban network, dimana semangat kerjasama, kekeluargaan & gotong royong sangat hangat dan terasa diantara para pelakunya. Agak berbeda dengan suasana Internet Indonesia pada perkembangannya kemudian yang terasa lebih komersial dan individual di sebagian aktivitasnya, terutama yang melibatkan perdagangan Internet.
Sejak 1988, ada pengguna awal Internet di Indonesia yang memanfaatkan CIX (Inggris) dan Compuserve (AS) untuk mengakses internet.
|
Awal Internet Indonesia
Berdasarkan catatan whois ARIN dan APNIC, protokol Internet (IP) pertama dari Indonesia, UI-NETLAB (192.41.206/24) didaftarkan oleh Universitas Indonesia pada 24 Juni 1988. RMS Ibrahim, Suryono Adisoemarta, Muhammad Ihsan, Robby Soebiakto, Putu, Firman Siregar, Adi Indrayanto, dan Onno W. Purbo merupakan beberapa nama-nama legendaris di awal pembangunan Internet Indonesia di tahun 1992 hingga 1994. Masing-masing personal telah mengontribusikan keahlian dan dedikasinya dalam membangun cuplikan-cuplikan sejarah jaringan komputer di Indonesia.
Tulisan-tulisan tentang keberadaan jaringan Internet di Indonesia dapat dilihat di beberapa artikel di media cetak seperti KOMPAS berjudul "Jaringan komputer biaya murah menggunakan radio"[1] di bulan November 1990. Juga beberapa artikel pendek di Majalah Elektron Himpunan Mahasiswa Elektro ITB di tahun 1989.
Internet Service Provider Indonesia
Di sekitar tahun 1994 mulai beroperasi IndoNet yang dipimpin oleh Sanjaya. IndoNet merupakan ISP komersial pertama Indonesia. Pada waktu itu pihak POSTEL belum mengetahui tentang celah-celah bisnis Internet & masih sedikit sekali pengguna Internet di Indonesia. Sambungan awal ke Internet dilakukan menggunakan dial-up oleh IndoNet, sebuah langkah yang cukup nekat barangkali. Lokasi IndoNet masih di daerah Rawamangun di kompleks dosen UI, kebetulan ayah Sanjaya adalah dosen UI. Akses awal di IndoNet mula-mula memakai mode teks dengan shell account, browser lynx dan email client pine pada server AIX.
Mulai 1995 beberapa BBS di Indonesia seperti Clarissa menyediakan jasa akses Telnet ke luar negeri. Dengan memakai remote browser Lynx di AS, maka pemakai Internet di Indonesia bisa akses Internet (HTTP).
Perkembangan terakhir yang perlu diperhitungkan adalah trend ke arah e-commerce dan warung internet yang satu & lainnya saling menunjang membuahkan masyarakat Indonesia yang lebih solid di dunia informasi. Rekan-rekan e-commerce membangun komunitasnya di beberapa mailing list utama seperti warta-e-commerce@egroups.com, mastel-e-commerce@egroups.com, e-commerce@itb.ac.id & i2bc@egroups.com.
Pengguna Awal Internet Lewat CIX dan Compuserve
Sejak 1988, CIX (Inggris) menawarkan jasa E-mail dan Newsgroup. Belakangan menawarkan jasa akses HTTP dan FTP. Beberapa pengguna Internet memakai modem 1200 bps dan saluran telpon Internasional yang sangat mahal untuk mengakses Internet. Sejak 1989 Compuserve (AS) juga menawarkan jasa E-mail dan belakangan Newsgroup, HTTP/FTP. Beberapa pengguna Compuserve memakai modem yang dihubungkan dengan Gateway Infonet yang terletak di Jakarta. Biaya akses Compuserve masih mahal, tetapi jauh lebih murah dari CIX.
File Transfer Protocol
1. FTP (singkatan dari File Transfer Protocol) adalah sebuah protokol Internet yang berjalan di dalam lapisan aplikasi yang merupakan standar untuk pentransferan berkas (file) komputer antar mesin-mesin dalam sebuah internetwork.
2. FTP merupakan salah satu protokol Internet yang paling awal dikembangkan, dan masih digunakan hingga saat ini untuk melakukan pengunduhan (download) dan penggugahan (upload) berkas-berkas komputer antara klien FTP dan server FTP. Sebuah Klien FTP merupakan aplikasi yang dapat mengeluarkan perintah-perintah FTP ke sebuah server FTP, sementara server FTP adalah sebuah Windows Service atau daemon yang berjalan di atas sebuah komputer yang merespons perintah-perintah dari sebuah klien FTP. Perintah-perintah FTP dapat digunakan untuk mengubah direktori, mengubah modus transfer antara biner dan ASCII, menggugah berkas komputer ke server FTP, serta mengunduh berkas dari server FTP.
3. Sebuah server FTP diakses dengan menggunakan Universal Resource Identifier (URI) dengan menggunakan format ftp://namaserver. Klien FTP dapat menghubungi server FTP dengan membuka URI tersebut.
4. FTP menggunakan protokol Transmission Control Protocol (TCP) untuk komunikasi data antara klien dan server, sehingga di antara kedua komponen tersebut akan dibuatlah sebuah sesi komunikasi sebelum transfer data dimulai. Sebelum membuat koneksi, port TCP nomor 21 di sisi server akan "mendengarkan" percobaan koneksi dari sebuah klien FTP dan kemudian akan digunakan sebagai port pengatur (control port) untuk (1) membuat sebuah koneksi antara klien dan server, (2) untuk mengizinkan klien untuk mengirimkan sebuah perintah FTP kepada server dan juga (3) mengembalikan respons server ke perintah tersebut. Sekali koneksi kontrol telah dibuat, maka server akan mulai membuka port TCP nomor 20 untuk membentuk sebuah koneksi baru dengan klien untuk mentransfer data aktual yang sedang dipertukarkan saat melakukan pengunduhan dan penggugahan.
6. FTP hanya menggunakan metode autentikasi standar, yakni menggunakan username dan password yang dikirim dalam bentuk tidak terenkripsi. Pengguna terdaftar dapat menggunakan username dan password-nya untuk mengakses, men-download, dan meng-upload berkas-berkas yang ia kehendaki. Umumnya, para pengguna terdaftar memiliki akses penuh terhadap beberapa direktori, sehingga mereka dapat membuat berkas, membuat direktori, dan bahkan menghapus berkas. Pengguna yang belum terdaftar dapat juga menggunakan metode anonymous login, yakni dengan menggunakan nama pengguna anonymous dan password yang diisi dengan menggunakan alamat e-mail.
Hypertext Transfer Protocol
Hypertext Transfer Protocol (HTTP) adalah sebuah protokol jaringan lapisan aplikasi yang digunakan untuk sistem informasi terdistribusi, kolaboratif, dan menggunakan hipermedia. Penggunaannya banyak pada pengambilan sumber daya yang saling terhubung dengan tautan, yang disebut dengan dokumen hiperteks, yang kemudian membentuk World Wide Web pada tahun 1990 oleh fisikawan Inggris, Tim Berners-Lee. Hingga kini, ada dua versi mayor dari protokol HTTP, yakni HTTP/1.0 yang menggunakan koneksi terpisah untuk setiap dokumen, dan HTTP/1.1 yang dapat menggunakan koneksi yang sama untuk melakukan transaksi. Dengan demikian, HTTP/1.1 bisa lebih cepat karena memang tidak usah membuang waktu untuk pembuatan koneksi berulang-ulang.
Pengembangan standar HTTP telah dilaksanakan oleh Konsorsium World Wide Web (World Wide Web Consortium/W3C) dan juga Internet Engineering Task Force (IETF), yang berujung pada publikasi beberapa dokumen Request for Comments (RFC), dan yang paling banyak dirujuk adalah RFC 2616 (yang dipublikasikan pada bulan Juni 1999), yang mendefinisikan HTTP/1.1.
Dukungan untuk HTTP/1.1 yang belum disahkan, yang pada waktu itu RFC 2068, secara cepat diadopsi oleh banyak pengembang penjelajah Web pada tahun 1996 awal. Hingga Maret 1996, HTTP/1.1 yang belum disahkan itu didukung oleh Netscape 2.0, Netscape Navigator Gold 2.01, Mosaic 2.7, Lynx 2.5, dan dalam Microsoft Internet Explorer 3.0. Adopsi yang dilakukan oleh pengguna akhir penjelajah Web pun juga cepat. Pada bulan Maret 2006, salah satu perusahaan Web hosting melaporkan bahwa lebih dari 40% dari penjelajah Web yang digunakan di Internet adalah penjelajah Web yang mendukung HTTP/1.1. [1]Perusahaan yang sama juga melaporkan bahwa hingga Juni 1996, 65% dari semua penjelajah yang mengakses server-server mereka merupakan penjelajah Web yang mendukung HTTP/1.1. Standar HTTP/1.1 yang didefinisikan dalam RFC 2068 secara resmi dirilis pada bulan Januari 1997. Peningkatan dan pembaruan terhadap standar HTTP/1.1 dirilis dengan dokumen RFC 2616 pada bulan Juni 1999.
HTTP adalah sebuah protokol meminta/menjawab antara klien dan server. Sebuah klien HTTP (seperti web browser atau robot dan lain sebagainya), biasanya memulai permintaan dengan membuat hubungan ke port tertentu di sebuah server Web hosting tertentu (biasanya port 80). Klien yang mengirimkan permintaan HTTP juga dikenal dengan user agent. Server yang meresponsnya, yang menyimpan sumber daya seperti berkas HTML dan gambar, dikenal juga sebagai origin server. Di antara user agent dan juga origin server, bisa saja ada penghubung, seperti halnya proxy, gateway, dan juga tunnel.
HTTP tidaklah terbatas untuk penggunaan dengan TCP/IP, meskipun HTTP merupakan salah satu protokol aplikasi TCP/IP paling populer melalui Internet. Memang HTTP dapat diimplementasikan di atas protokol yang lain di atas Internet atau di atas jaringan lainnya. seperti disebutkan dalam "implemented on top of any other protocol on the Internet, or on other networks.", tapi HTTP membutuhkan sebuah protokol lapisan transport yang dapat diandalkan. Protokol lainnya yang menyediakan layanan dan jaminan seperti itu juga dapat digunakan.."[2]
Sumber daya yang hendak diakses dengan menggunakan HTTP diidentifikasi dengan menggunakan Uniform Resource Identifier (URI), atau lebih khusus melalui Uniform Resource Locator (URL), menggunakan skema URI http: atau https:.
Sesuai dengan perkembangan infrastruktur internet maka pada tahun 1999 dikeluarkan HTTP versi 1.1 untuk mengakomodasi proxy, cache dan koneksi yang persisten.
Pengertian search engine
Dalam dunia website/weblog sekarang ini, khususnya bagi para publisher dan blogger diperlukan pengetahuan tentang Search Engine Optimization, website/weblog yang telah sobat buat tugas selanjutnya adalah mendaftarkan website/weblog sobat ke mesin pencari Google atau yang lainnya. Sebelum mendaftarkan website/weblog yang telah dibuat; sekarang yang menjadi pertanyaan apa itu search engine optimization, cara kerja dan fungsi suatu search engine.
- Pengertian Search Engine
Mesin pencari web atau yang lebih dikenal dengan istilah web search engine merupakan program komputer yang dirancang untuk mencari informasi yang tersedia didalam dunia maya. Berbeda halnya dengan direktori web (seperti dmoz.org) yang dikerjakan oleh manusia untuk mengelompokkan suatu halaman informasi berdasarkan kriteria yang ada, web search engine mengumpulkan informasi yang tersedia secara otomatis. - Cara Kerja Search Engine
Mesin pencari web bekerja dengan cara menyimpan hampir semua informasi halaman web, yang diambil langsung dari www. Halaman-halaman ini diambil secara otomatis. Isi setiap halaman lalu dianalisis untuk menentukan cara mengindeksnya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data
tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.
Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.
Mesin pencari lain yang menggunakan proses real-time, seperti Orase, tidak menggunakan indeks dalam cara kerjanya. Informasi yang diperlukan mesin tersebut hanya dikumpulkan jika ada pencarian baru. Jika dibandingkan dengan sistem berbasis indeks yang digunakan mesin-mesin seperti Google, sistem real-time ini unggul dalam beberapa hal seperti informasi selalu mutakhir, (hampir) tak ada broken link, dan lebih sedikit sumberdaya sistem yang diperlukan (Google menggunakan hampir 100.000 komputer, Orase hanya satu.). Tetapi, ada juga kelemahannya yaitu pencarian lebih lama rampungnya. - Komponen utama dalam Search Engine
Sebuah search engine memiliki beberapa komponen agar dapat menyediakan layanan utamanya sebagai sebuah mesin pencari informasi. Komponen tersebut antara lain :
- Web Crawler
Web crawler atau yang dikenal juga dengan istilah web spider bertugas untuk mengumpulkan semua informasi yang ada di dalam halaman web. Web crawler bekerja secara otomatis dengan cara memberikan sejumlah alamat website untuk dikunjungi serta menyimpan semua informasi yang terkandung didalamnya. Setiap kali web crawler mengunjungi sebuah website, maka dia akan mendata semua link yang ada dihalaman yang dikunjunginya itu untuk kemudian di kunjungi lagi satu persatu.
Proses web crawler dalam mengunjungi setiap dokumen web disebut dengan web crawling atau spidering. Beberapa websites, khususnya yang berhubungan dengan pencarian menggunakan proses spidering untuk memperbaharui data data mereka. Web crawler biasa digunakan untuk membuat salinan secara sebhagian atau keseluruhan halaman web yang telah dikunjunginya agar dapat dip roses lebih lanjut oleh system pengindexan. Crawler dapat juga digunakan untuk proses pemeliharaan sebuah website, seperti memvalidasi kode html sebuah web, dan crawler juga digunakan untuk memperoleh data yang khusus seperti mengumpulkan alamat e-mail.
Web crawler termasuk kedalam bagian software agent atau yang lebih dikenal dengan istilah program bot. Secara umum crawler memulai prosesnya dengan memberikan daftar sejumlah alamat website untuk dikunjungi, disebut sebagai seeds. Setiap kali sebuah halaman web dikunjungi, crawler akan mencari alamat yang lain yang terdapat didalamnya dan menambahkan kedalam daftar seeds sebelumnya.
Dalam melakukan prosesnya, web crawler juga mempunyai beberapa persoalan yang harus mampu di atasinya. Permasalahan tersebut mencakup :
- Halaman mana yang harus dikunjungi terlebih dahulu.
- Aturan dalam proses mengunjungi kembali sebuah halaman.
- Performansi, mencakup banyaknya halaman yang harus dikunjungi.
- Aturan dalam setiap kunjungan agar server yang dikunjungi tidak kelebihan beban.
- Kegagalan, mencakup tidak tersedianya halaman yang dikunjungi, server down, timeout, maupun jebakan yang sengaja dibuat oleh webmaster.
- Seberapa jauh kedalaman sebuah website yang akan dikunjungi.
- Hal yang tak kalah pentingnya adalah kemampuan web crawler untuk mengikuti
perkembangan teknologi web, dimana setiap kali teknologi baru muncul, web crawler harus dapat menyesuaikan diri agar dapat mengunjungi halaman web yang menggunakan teknologi baru tersebut.
Proses sebuah web crawler untuk mendata link – link yang terdapat didalam sebuah halaman web menggunakan pendekatan regular expression. Crawler akan menelurusi setiap karakter yang ada untuk menemukan hyperlink tag html (). Setiap hyperlink tag yang ditemukan diperiksa lebih lanjut apakah tag tersebut mengandung atribut nofollow rel, jika tidak ada maka diambil nilai yang terdapat didalam attribute href yang merupakan sebuah link baru.
- Indexing system
Indexing system bertugas untuk menganalisa halaman web yang telah tersimpan sebelumnya dengan cara mengindeks setiap kemungkinan term yang terdapat di dalamnnya. Data term yang ditemukan disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya.
Indexing system mengumpulkan, memilah dan menyimpan data untuk memberikan kemudahan dalam pengaksesan informasi secara tepat dan akurat. Proses pengolahan halaman web agar dapat digunakan untuk proses pencarian berikutnya dinakamakan web indexing. Dalam implementasinya index system dirancang dari penggabungan beberapa cabang ilmu antara lain ilmu bahasa, psikologi, matematika, informatika, fisika, dan ilmu komputer.
Tujuan dari penyimpanan data berupa indeks adalah untuk performansi dan kecepatan dalam menemukan informasi yang relevan berdasarkan inputan user. Tanpa adanya indeks, search engine harus melakukan scan terhadap setiap dokumen yang ada didalam database. Hal ini tentu saja akan membutuhkan proses sumber daya yang sangat besar dalam proses komputasi. Sebagai contoh, indeks dari 10.000 dokumen dapat diproses dalam waktu beberapa detik saja, sedangkan penulusuran secara berurutan setiap kata yang terdapat di dalam 10.000 dokumen akan membutuhkan waktu yang berjam lamanya. Tempat tambahan mungkin akan dibutuhkan di dalam computer untuk penyimpanan indeks, tapi hal ini akan terbayar dengan penghematan waktu pada saat pemrosesan pencarian dokumen yang dibutuhkan. - Search system
Search system inilah yang berhubungan langsung dengan pengguna, meyediakan hasil pencarian informasi yang diinginkan. Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan kata pencarian biasanya dengan beberapa kata kunci, search system akan mencari data dari indeks database, data yang cocok kemudian akan ditampilkan, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.
| |
| |
|
|
| |
Jenis | |
Mozilla EULA untuk distribusi biner | |
Mozilla Firefox (aslinya bernama Phoenix dan kemudian untuk sesaat dikenal sebagai Mozilla Firebird) adalah penjelajah web antar-platform gratis yang dikembangkan oleh Yayasan Mozilla dan ratusan sukarelawan. Versi 3.0 dirilis pada 17 Juni 2008.
Sebelum rilis versi 1.0-nya pada 9 November 2004, Firefox telah mendapatkan sambutan yang sangat bagus dari pihak media, termasuk dari Forbes dan Wall Street Journal. [1][2] Dengan lebih dari 5 juta download dalam 12 hari pertama rilisnya dan 6 juta hingga 24 November 2004, Firefox 1.0 adalah salah satu perangkat lunak gratis, sumber-terbuka (open-source) yang paling banyak digunakan di antara pengguna rumahan. [3]
Melalui Firefox, Yayasan Mozilla betujuan untuk mengembangkan sebuah browser web yang kecil, cepat, simpel, dan sangat bisa dikembangkan (terpisah dari Mozilla Suite yang lebih besar). Firefox telah menjadi fokus utama perkembangan Mozilla bersama dengan client e-mail Mozilla Thunderbird, dan telah menggantikan Mozilla Suite sebagai rilis browser resmi Yayasan Mozilla.
Di antara fitur populer Firefox adalah pemblokir pop-up yang sudah terpasang di dalamnya, dan sebuah mekanisme pengembangan (extension) untuk menambah fungsionalitas tambahan. Meskipun fitur-fitur ini sudah tersedia untuk beberapa lamanya di browser-browser lainnya seperti Mozilla Suite dan Opera, Firefox merupakan browser pertama yang mendapatkan penerimaan dalam skala sebesar ini. Firefox ditargetkan untuk mendapat sekitar 10% pangsa pasar Internet Explorer keluaran Microsoft (browser paling populer dengan margin yang besar (per 2004) hingga tahun 2005, yang telah disebut oleh banyak orang sebagai tahun kembalinya perang browser. [4]
Firefox telah mendapatkan perhatian sebagai alternatif kepada Internet Explorer sejak Explorer dikecam karena tuduhan ketidakamanannya—pihak yang setuju terhadap anggapan ini mengatakan Explorer tidak mengikuti standar Web, menggunakan komponen ActiveX yang sering membahayakan, dan kelemahannya terhadap pemasangan spyware dan malware—dan kurangnya fitur-fitur yang dianggap pemakai Firefox penting. [5] Microsoft sendiri telah merespons bahwa mereka tidak menganggap jika isu-isu mengenai keamanan dan fitur Explorer perlu dikhawatirkan. [6]
Versi 2.0 diluncurkan pada 24 Oktober 2006. Pada versi 2.0 ini, Mozilla mempunyai bug (kelemahan) yaitu akan "crash" jika membuka web page (halaman Web) yang sangat besar dan memiliki JavaScript, namun hal ini telah diperbaiki. [7]
Google Chrome OS
Google kayaknya memang mau menguasai semua ranah informasi teknologi, setelah sukses dengan program iklannya (adsense), google mulai merambah semua aspek informasi… sebut saja google earth, chrome browser (jelek suka crash), android (handphone OS), dan kalau gak salah ada salah satu bahasa pemrograman google saya lupa namnya. Sekarang google sudah mulai menyiapkan Chrome OS (operating system). Hadirnya Chrome OS akan semakin memanjakan pengguna komputer untuk memilih operating system mana saja yang ingin mereka gunakan tidak lagi berada di antara 3 pilihan Windows, Linux, atau MAC.
Sayangnya ternyata Chrome OS ini untuk saat ini hanya tersedia dalam paket bundle piranti yang bekerja sama dengan google. Tapi gak usah khawatir cepat atau lambat perkiraan saya 1 minggu lagi atau mungkin awal 2010 Chrome OS ini bisa didownload dan digunakan gratis. Berhubung saya belum coba sendiri Chrome OS ini, bahkan saya tidak tau basic dasarnya Chrome OS ini apakah pengembangan dari linux atau murni pembuatan dari awal. Saya dapat referensi dari detik.com tentang keunggulan Chrome OS ini yang dipamerkan oleh google.
- Booting yang Cepat.
Pichai menyebutkan bahwa Chrome OS sama seperti sebuah televisi saat dinyalakan. Tidak memiliki jeda waktu booting yang lama, karena tak memiliki aplikasi lokal yang membatasi ruang gerak hardware. - Masalah Keamanan.
OS ini diintegrasikan dengan Chrome browser. Dengan demikian maka selayaknya browser, OS ini akan langsung mengupdate sistem keamanannya secara default. Hal ini masih ditambah lagi dengan penyimpanan data secara fisik dalam storage yang kini dirancang minimalis. Pasalnya semua data dapat disimpan secara online. - Dukung Arsitektur X86 dan ARM.
Google berjanji untuk mengaplikasikan baik arsitektur X86, ARM dan code-code populer bagi netbook lainnya. - Menu Aplikasi.
Sebuah aplikasi web yang baru kini dapat ditemui dalam menu aplikasi secara permanen pada Chrome OS ini. Hal ini akan membantu pengguna untuk mencari sebuah aplikasi baru langsung secara online. Selain memudahkan pengguna menu aplikasi ini juga menguntungkan pihak pengembang. - Akur dengan Microsoft Office.
Walau Microsoft dengan Windows-nya merupakan pesaing berat mereka, namun Chrome OS ini ternyata juga mendukung dijalankannya dokumen office. Saat peluncuran Chorme OS, Pichai juga mendemokan bahwa Chrome dapat membuka sebuah dokumen via Microsoft office live. Microsoft office live adalah sebuah aplikasi web gratis bagi pengguna Windows live.