Bagaimana Algoritma Google Panda Bekerja


Pada tahun 2005 Google diterbitkan "Web Authoring Statistik" laporannya , yang memberikan wawasan yang unik ke dalam bagaimana mesin pencari besar memandang Web di tingkat HTML sangat dasar.
Pada bulan Agustus 2009 Matt Cutts mengundang Webmaster untuk membantu menguji teknologi pengindeksan baru bahwa Google telah dijuluki Kafein. Komunitas SEO segera jatuh ke spekulasi merajalela tentang bagaimana Kafein akan mempengaruhi peringkat (pada kenyataannya, satu-satunya efek itu tidak disengaja).
Pada Februari 2010 bahkan aku telah jatuh korban Speculationitis Kafein . Pada 25 Februari 2010 Matt McGee menegaskan bahwa Google belum menerapkan teknologi Kafein pada lebih dari 1 pusat data (saat ini, pada April 2013, hanya ada 13 Data Center Google di seluruh dunia).
Pada tanggal 8 Juni 2010 Google mengumumkan selesainya menggelar teknologi pengindeksan Kafein nya . Kafein memberi Google kemampuan untuk mengindeks lebih dari Web pada tingkat lebih cepat daripada sebelumnya. Ini teknologi pengindeksan yang lebih besar, lebih cepat selalu berubah hasil pencarian karena semua baru ditemukan konten yang mengubah frame mesin pencari acuan bagi jutaan pertanyaan.
Pada November 11, 2010 Matt Cutts mengatakan bahwa Google akan menggunakan sebanyak 50 variasi untuk beberapa 200 + sinyal peringkatnya , titik bahwa Danny Sullivan digunakan untuk memperkirakan potensi 10.000 "sinyal" Google akan menggunakan dalam algoritma.
Pada 24 Februari 2011 Google mengumumkan rilis dari algoritma Panda iterasi pertama ke dalam indeks.
Pada 2 Maret 2011 Google Webmaster meminta untuk berbagi URL situs mereka yakini seharusnya tidak diturunkan oleh Panda . Diskusi berlangsung selama berbulan-bulan dan benang lebih dari 1000 tulisan panjang. Insinyur Google sesekali menegaskan sepanjang 2011 bahwa mereka masih menonton diskusi dan mengumpulkan informasi lebih lanjut.
Keesokan harinya Wired menerbitkan sebuah wawancara dengan Amit Singhal dan Matt Cutts (lihat di bawah).
Pada 6 Mei 2011 Amit Singhal diterbitkan 23 pertanyaanyang menarik banyak kritik dari pemasar Web frustrasi. Massa yang marah tidak mengerti konteks di mana pertanyaan yang harus digunakan.
Pada 21 Juni 2011 Danny Sullivan menyarankan Panda yang mungkin menjadi faktor peringkat lebih dari sekedar filter (pandangan bahwa saya dan orang lain juga datang untuk memegang pada saat itu, tapi Danny adalah orang pertama yang menyarankan hal ini publik).
Pada pertengahan Maret 2013 Google mengumumkan bahwa algoritma Panda telah "dimasukkan ke dalam proses pengindeksan kami" , berarti itu sekarang dasarnya berjalan dengan autopilot. Antara 24 Februari 2011 dan 15 Maret 2013 terdapat lebih dari 20 dikonfirmasi dan diduga "iterasi" dari algoritma Panda yang mengubah hasil pencarian untuk jutaan permintaan.

Apa Google Dikatakan Kami Tentang Algoritma Panda


Pada 3 Maret 2011 Wired menerbitkan sebuah wawancara dengan Amit Singhal dan Matt Cutts di mana mereka menjelaskan apa Panda itu dan dari mana asalnya .

Singhal : Jadi kami melakukan Kafein [update besar yang meningkatkan proses pengindeksan Google] pada akhir tahun 2009. Indeks kami tumbuh begitu cepat, dan kami hanya merangkak dengan kecepatan jauh lebih cepat. Ketika itu terjadi, kita pada dasarnya punya banyak konten segar yang baik, dan beberapa tidak begitu baik.Masalahnya telah bergeser dari omong kosong acak, yang tim spam yang telah baik diambil dari perawatan, menjadi agak lebih seperti prosa tertulis. Tapi isinya dangkal.

Matt Cutts : Rasanya seperti, "Apa minimal yang bisa saya lakukan itu bukan spam?" Ini semacam jatuh antara kelompok kami masing-masing. Dan kemudian kami memutuskan, oke, kita harus datang bersama-sama dan mencari cara untuk mengatasi hal ini.
Proses yang dikembangkan Google untuk menanggapi ini "konten dangkal" tiba-tiba menjadi sadar itu tidak sederhana. Mereka memilih kelompok inti Website, menyerahkan situs-situs untuk "kualitas penilai", yang kemudian meninjau Website. Ulasan terdiri dari atau termasuk survei di mana penilai kualitas menjawab pertanyaan intuitif:

Wired.com : Bagaimana Anda mengenali situs-konten dangkal? Apakah Anda harus berakhir mendefinisikan konten berkualitas rendah?

Singhal : Itu masalah yang sangat, sangat keras bahwa kita belum dipecahkan, dan ini merupakan evolusi yang sedang berlangsung bagaimana untuk mengatasi masalah tersebut. Kami ingin tetap ketat ilmiah, jadi kami menggunakan sistem evaluasi standar kami bahwa kami telah dikembangkan, di mana kita pada dasarnya mengirimkan dokumen untuk penguji luar. Kemudian kami meminta penilai pertanyaan seperti: "Apakah Anda merasa nyaman memberikan situs ini kartu kredit Anda? Apakah Anda akan memberikan obat nyaman diresepkan oleh situs ini untuk anak-anak Anda? "

Cutts : Ada seorang insinyur yang datang dengan satu set ketat pertanyaan, mulai dari."Apakah Anda menganggap situs ini menjadi berwibawa? Apakah akan baik-baik saja jika ini di majalah? Apakah situs ini memiliki iklan yang berlebihan? "Pertanyaan di sepanjang jalur tersebut.

Singhal : Dan berdasarkan itu, kita pada dasarnya membentuk beberapa definisi apa yang bisa dianggap kualitas rendah. Selain itu, kami meluncurkan Situs Blocker Chrome [memungkinkan pengguna untuk menentukan situs mereka ingin diblokir dari hasil pencarian mereka] sebelumnya, dan kami tidak menggunakan data dalam perubahan ini. Namun, kami membandingkan dan itu 84 persen tumpang tindih [antara situs download oleh blocker Chrome dan diturunkan oleh update]. Jadi yang mengatakan bahwa kami berada di arah yang benar.

Wired.com : Tapi bagaimana Anda menerapkan bahwa algoritma?

Cutts : Saya pikir Anda mencari sinyal yang menciptakan intuisi yang sama, pengalaman yang sama yang Anda miliki sebagai seorang insinyur dan bahwa pengguna memiliki. Setiap kali kita melihat situs yang paling diblokir, hal itu sesuai dengan intuisi dan pengalaman kami, tapi kuncinya adalah, Anda juga memiliki pengalaman dari jenis situs yang akan memberikan nilai tambah bagi pengguna dibandingkan tidak menambah nilai bagi pengguna. Dan kita benar-benar datang dengan classifier untuk mengatakan, oke, IRS atau Wikipedia atau New York Times berakhir di sisi ini, dan situs berkualitas rendah lebih pada sisi ini. Dan Anda benar-benar dapat melihat alasan matematika ...

Singhal : Anda bisa bayangkan dalam hyperspace sebuah sekelompok poin, beberapa poin merah, beberapa poin yang hijau, dan lain-lain ada beberapa campuran. Tugas Anda adalah untuk menemukan pesawat yang mengatakan bahwa kebanyakan hal di sisi tempat merah, dan sebagian besar hal-hal di sisi pesawat adalah kebalikan dari warna merah.
Karena insinyur pencari tidak bisa menghitung sinyal untuk "Anda akan mempercayai situs ini dengan kartu kredit Anda" mereka harus mencari pengukuran statistik lainnya yang akan sesuai tinggi dengan jawaban yang diberikan dalam Penilai Quality Survey.
google panda grafik
Contoh grafik menunjukkan hyperplane Pemisahan dari kertas co-ditulis oleh Navneet Panda.
Amit Singhal ini 23 pertanyaan (lihat link di atas) hampir pasti diambil langsung dari Survei Kualitas Penilai '. Saya percaya mereka disebutkan di suatu tempat bahwa survei yang sebenarnya memiliki sekitar 100 pertanyaan. Jawaban atas pertanyaan-pertanyaan ini tidak menyediakan Google dengan data yang dapat diintegrasikan ke dalam setiap faktor peringkat. Saya percaya bahwa mereka melakukan plot jawaban pada grafik yang membantu mereka membagi sampel dari seluruh situs Web dalam "kualitas tinggi" dan "kualitas rendah" situs. Mereka mungkin menggunakan teknik yang sama dengan hyperplane Pemisahan , yang merupakan salah satu daerah yang insinyur Google Navneet Panda telah dipelajari.

Apa yang Kami Tahu Tentang Algoritma Panda Terpisah dari Keterangan Google


Algoritma Panda adalah algoritma heuristik. Artinya, ia memindai satu set data yang besar dan mencari jenis tertentu solusi atas pertanyaan atau masalah (seperti, "Apa campuran sinyal statistik akan membagi data ke ALPHA dan kelompok BETA?"). Apa yang mungkin menjadi revolusioner tentang algoritma Panda (saya percaya) adalah bahwa (saya pikir) berusaha untuk menghilangkan atau memotong perbandingan yang tidak perlu dan perhitungan, sehingga mengurangi jumlah keseluruhan perhitungan yang diperlukan untuk menemukan yang paling cocok untuk solusi tertentu yang diinginkan.
Apa Google perlu lakukan adalah mengembangkan seperangkat sinyal peringkat dan / atau bobot yang akan membantu mereka Website terpisah menjadi "High Quality" dan "Low Quality" situs. Kualitas Survei Rater rupanya digunakan untuk membagi kolam Website diam-diam dipilih menjadi seperti sebuah pesawat terpisah. Para insinyur Google kemudian berbalik Panda longgar pada volume besar mereka data tentang Website dengan tujuan menemukan pengelompokan terbaik sinyal dan nilai-nilai tertimbang bagi sinyal yang akan menghasilkan pertandingan terdekat dengan pilihan kolektif kualitas penilai '.
Melalui banyak iterasi publik Google tampaknya telah berubah (mungkin sebagian besar membesar) kolam renang (set belajar) Website yang digunakan untuk menentukan apa yang mencampur sinyal dan bobot harus digunakan untuk menentukan Web (halaman / situs) 's Panda skor. Skor ini (jika ada) mungkin ditambahkan ke (halaman / situs) 's PageRank. Matt menggambarkan algoritma sebagai "classifier dokumen", yang dalam penggunaan ditetapkan berarti bahwa itu adalah program yang memindai dokumen Web individu dan menilai mereka.
Oleh karena itu, "nilai Panda" Anda ditugaskan untuk setiap halaman, dan cukup kumulatif halaman pada website Anda mungkin akan terpengaruh negatif bahwa mereka "tarik ke bawah" sisa situs Anda, skenario mungkin bahwa Googler telah diakui.
Mengubah set pembelajaran harus berarti bahwa campuran sinyal terbaik cocok dan berat juga akan berubah, bahkan jika hanya secara halus.

Apa yang saya percaya ini Berarti Tentang Algoritma Panda


Bagaimana cara Google tahu apakah sebuah Website di set pembelajaran harus dinilai sebagai "berkualitas tinggi" atau "kualitas rendah"? Saya percaya mereka telah melakukan beberapa, mungkin banyak, baru Kualitas Survei Rater karena mereka telah memperluas set belajar mereka. Setiap situs waktu ditambahkan ke belajar mengatur penilai kualitas memberikan umpan balik pada situs dan insinyur menggunakan umpan balik untuk menentukan apakah situs yang "berkualitas tinggi" atau "kualitas rendah".
Dengan cara ini Google selalu memiliki cetak biru yang cukup saat ini apa yang tampak seperti Web.Cetak biru ini digunakan untuk membantu algoritma Panda menemukan yang paling cocok sinyal Website dan bagaimana bobot sinyal tersebut untuk menghasilkan satu set nilai (untuk ditugaskan ke halaman individual) yang membagi Web menjadi "berkualitas tinggi" dan "kualitas rendah" .
Saya menduga bahwa - sekarang algoritma Panda lebih-atau-kurang otomatis - harus ada batas yang melindungi "lapisan tengah" tak tentu Website yang halamannya tidak bisa dianggap "berkualitas tinggi" atau "kualitas rendah". Mungkin konten ini tidak diberi skor Panda sama sekali. Mungkin itu hanya berarti skor tidak mempengaruhi penilaian dokumen dalam Google indeks salah satu cara atau yang lain.

Bagaimana Penting adalah Panda untuk Webmaster tahun 2013?


Di sini pada tahun 2013 algoritma Panda masih mengganggu banyak Webmaster. Hal ini dikutip lebih sering daripada perubahan lain Google algoritmik kecuali Penguin seluruh spektrum yang luas dari diskusi SEO yang saya ikuti. Saya terus menerima pertanyaan konsultasi dari orang-orang yang situs tidak bisa pulih dari Panda.
Pada akhir Maret Eric Enge berbagi pemikiran terbaru mengenai Panda di Google+ . Jalan menurun di komentar yang mendalam akhirnya saya memutuskan untuk melangkah keluar dari kegelapan dan mengambil pengecualian untuk bagian logika Eric (yang telah beralasan / berpendapat / didukung oleh banyak orang di industri). Pembahasan pada awalnya difokuskan pada tingkat bouncing, tapi aku akhirnya menyadari bahwa kami benar-benar tidak berbicara tentang tingkat bouncing (dan tentu saja tidak bouncing harga yang dapat melacak dan mengukur dalam analisis Anda).
Dalam komentar terakhir saya pada diskusi yang saya mulai dengan berikut:

Anda dapat membuat cangkir teh atau Anda dapat mengumpulkan koleksi cangkir teh.Anda juga dapat memilih satu cangkir teh, hanya satu, bahwa orang lain telah dibuat.Jadi Google mengatakan kepada orang-orang tentang cangkir teh daripada membuat mereka. Dari perspektif mereka lebih baik untuk menciptakan koleksi besar daripada cangkir teh untuk mengevaluasi setiap cangkir teh secara mendetil sehingga mereka memilih hanya satu.

Oleh karena itu, mereka perlu fokus pada apa yang membuat koleksi terbaik cangkir teh, bukan cangkir teh terbaik. Ini adalah prinsip dasar ekonomi (atau mungkin biologi adalah sumber komparatif yang lebih baik) bahwa sistem gravitates menuju titik ekuilibrium yang menghasilkan hasil terbaik untuk sedikitnya jumlah energi. Bahwa "hasil terbaik" selalu kompromi, tidak pernah pilihan yang sempurna.

Pekerjaan google TIDAK untuk keluar tunggal situs terbaik melainkan untuk menemukan konten yang cukup dapat diterima untuk menunjukkan di SERPs bahwa penggunanya puas. Bila Anda tidak tahu tentang pohon topi berlapis emas bagaimana Anda memberitahu orang-orang yang pohon topi berlapis emas adalah yang terbaik?Anda tidak bisa. Anda hanya dapat membantu mereka melihat presentasi terbaik dari vendor pohon hat-berlapis emas dan berharap ada substansi sebenarnya di balik presentasi.
CATATAN: Setelah memikirkan hal ini lagi, Eric menerbitkan penjumlahan yang bagus beberapa hari kemudian yang saya bisa setuju. Apa yang saya maksudkan dalam komentar saya kepada Eric adalah apa yang saya telah sering disebut The Wikipedia Prinsip , yang menyatakan bahwa "mesin pencari sengaja mempromosikan konten berkualitas rendah yang minimal dapat diterima untuk pencari karena biaya kurang untuk melakukan itu daripada untuk mempromosikan konten yang lebih baik . "
Insinyur Pencarian mungkin tidak setuju dengan kata-kata saya tapi prinsip dasarnya suara. Sebuah mesin pencari tidak, tidak bisa, dan tidak akan mencoba untuk memperbaiki kepuasan pencari dengan hasil. Jika hasil memuaskan pengguna kerja mesin pencari dilakukan, bahkan jika mungkin ada informasi yang lebih baik tersedia di luar sana yang bisa menguntungkan pencari lagi.
Kepentingan kompetitif memotivasi mesin pencari untuk melebihi Ambang Wikipedia Prinsip itu, untuk memastikan. Setelah semua, jika seseorang menciptakan mesin pencari yang lebih baik daripada Google maka Google harus baik meningkatkan hasil atau risiko kehilangan pengguna ke mesin pencari yang lebih baik. Meskipun demikian, semua itu persaingan ekonomi antara search engine berarti bahwa Threshold Kepuasan yang ditinggikan, tidak dihilangkan. Teknologi ini tidak dapat melakukan jauh dengan kesetimbangan melekat sendiri.

Jadi Bagaimana Apakah Anda Recover Dari Downgrade Panda?


Jawaban singkatnya adalah sederhana: Anda mendesain ulang situs Anda untuk menyajikan informasi (dan membuat pengalaman pengguna) yang kira-kira sebanding dalam kualitas presentasi dengan yang disediakan oleh situs-situs yang manfaat dari algoritma Panda.
Dengan kata lain, Anda harus berhenti menempatkan kepentingan Anda sendiri di depan kepentingan pengguna dan menciptakan nyata nilai presentasi bagi para pengguna. Meningkatnya penekanan pada konversi di marketeering industri web memiliki semua-tapi-memastikan bahwa algoritma Google Panda akan memiliki banyak halaman untuk downgrade selama bertahun-tahun yang akan datang.
Algoritma Panda adalah Website bermanfaat yang mengatur dan menyajikan informasi yang berguna, unik, dan relevan bagi pengguna, algoritma merendahkan Website yang hanya mempublikasikan konten sehingga seseorang bisa mendapatkan uang. Apakah niat ini Google dengan Panda? Saya meragukannya. Mereka terus membantu banyak Website menghasilkan miliaran dolar dalam pendapatan. Panda adalah tidak benar-benar tentang uang untuk Google - tidak secara langsung.Panda hanyalah sebuah respon terhadap tekanan kompetitif untuk terus meningkatkan kualitas hasil pencarian.
Jika bukan karena Bing dan mesin pencari lainnya, kita mungkin pernah melihat algoritma Panda. Atau mungkin itu akan berperilaku berbeda.

Bisakah Kita Get Down ke Detail Panda khusus?


Saya sebutkan ke Eric bahwa saya tidak lagi dibatasi oleh perjanjian non-disclosure untuk menjaga penelitian Panda untuk diriku sendiri. Saya tidak memiliki data yang saya awalnya dikumpulkan karena itu eksklusif, tapi aku tahu apa yang saya pelajari. Dan sekarang saya bisa katakan bahwa saya berpartisipasi dalam sebuah studi korelasi ilmiah kaku yang mengevaluasi beberapa faktor yang diusulkan untuk downgrade Panda. Hanya 1 dari faktor-faktor yang diusulkan menghasilkan korelasi statistik inarguable.
Saya mengajukan proposal kepada SMX Lanjutan 2013 untuk berbagi penelitian saya tapi kelihatannya seperti itu tidak akan terjadi. Aku tidak akan meletakkannya di Teori SEO untuk beberapa alasan saya tidak ingin pergi ke. Memahami bahwa karena saya tidak memiliki akses ke data asli saya harus merekonstruksi penelitian saya (dan mungkin itu adalah alasan yang cukup untuk tidak menyertakan presentasi seperti di SMX Lanjutan).
Adapun 1 "statistik inarguable korelasi" hanya berlaku untuk Website yang masuk dalam kategori tertentu. Dengan "kategori" Maksudku situs yang berbagi desain tertentu dan gaya presentasi. Ini tidak ada hubungannya dengan "isi" dan bukan tingkat bouncing.
Apakah ada penyebab atau penjelasan untuk downgrade Panda lainnya? Saya yakin pasti ada. Namun, sampai saat ini, saya belum melihat siapa pun mempublikasikan studi kredibel menganalisis faktor Panda (dan hanya harus jelas, ANDA belum melihat ME mempublikasikan sesuatu seperti itu, baik).
Saya telah membahas beberapa temuan Panda saya di SEO Teori Premium Newsletter . Banyak meskipun saya ingin untuk Anda semua untuk berlangganan newsletter, aku lebih suka kau tidak melakukannya untuk alasan itu saja, dan jika Anda berlangganan Anda harus membayar untuk kembali masalah tertentu. Anda tidak bisa hanya mendaftar untuk 1 bulan, menyerang arsip, dan kemudian pergi.
Mungkin di suatu tempat di masa depan saya akan memiliki kesempatan untuk membuat presentasi publik. Saya tidak bisa memecahkan seluruh Panda teka-teki bagi Anda, tetapi saya pasti membantu untuk membawa banyak situs kembali dari penurunan peringkat Panda. Tidak ada solusi rumusan, kecuali bahwa banyak Website telah membuat kesalahan yang sama berulang-ulang.
Kesederhanaan adalah obat terbaik untuk Downgrade Panda. Kecuali itu, menempatkan pengalaman pengguna menjelang tujuan keuangan Anda adalah jalur yang optimal bagi kelangsungan hidup di zaman Panda dan Penguins.(Baca artikel tentang optimalkan SEO : On Page Seo dan google multibahasa internasional)

www.seowaps.com

Ditulis Oleh : Web Hosting Indonesia

Judul Artikel "Bagaimana Algoritma Google Panda Bekerja" Jika salin Artikel Bagaimana Algoritma Google Panda Bekerja, mohon mencantumkan sumber link http://www.webhosting.web.id/2013/04/bagaimana-algoritma-google-panda-bekerja.html. Salam from Web Hosting Gratis

:: Web Hosting Indonesia ::

0 komentar:

Posting Komentar

 
 
Copyright © WEBHOSTING.WEB.ID, Powered by UNMETERED