PDA

Visualizza la versione completa : Si ritorna alla revisione umana?


ppevans
06-02-2007, 14:23
Sembra, stando alle ultime novità del TrustRank e in base a parecchie visite da Montain view ai miei siti (piccoli), e leggendo un pò in giro che google stia tornando alla revisione umana parziale e in alcuni casi (penalties, ban, adsense) completa (sempre peò, ovviamente, con algoritmi di classificazione).
--------
Secondo me per Internet, in generale, è meglio.
-------
Nel web 2.0 sembra che conti quasi esclusivamente il voto umano.
------
Cosa ne pensate?

Psyko83
06-02-2007, 14:29
Una ripulitina al web esiliando siti sporki e spammosi

Evi|A|ivE
06-02-2007, 15:04
Non so.

Un robot non ha legami. Ha un algoritmo.
Un essere umano puo avere legami, pressioni, aut-aut cui sottostare.

Quando gUgol ritorna risultati sbagliati (secondo alcuni) è perche ha un algoritmo schifido, vecchio o che ne so. Lui come gli altri.

Quando , che ne so, dmoS offre risultati sbagliati allora si scatena l'inferno, si allude a conflitti di interesse, magnamagna.

Secondo me meno ci mette la mano l'uomo (con la sua stupida volubilità) meglio è.

siti come questi (http://www.google.it/search?q=armadio+metallo&hl=it&rls=GGGL,GGGL:2006-35,GGGL:it&start=20&sa=N) non dovrebbero neanche entrarci in serp. non parlo di penalizzazione POST ingresso o POST sandbox o POSTquelchevuoi.

Dico che le regolette per individuare gli spammer piu grossolani son cosi semplici che è disarmante vedere come , invece, possano imperversare :)

ppevans
06-02-2007, 22:34
E' tutto vero quello che dici Maleaelam ....(tradotto).
--------------
Però è anche vero che una volta che l'essere umano spammer ha scoperto la falla....
Un essere umano vede, ragiona e intuisce...
Un bot è cieco, ragiona meno e non pensa...
E comunque è meglio, finchè possibile, che non comandi un algoritmo...
Tieni presente che i siti devono essere fatti per gli occhi degli uomini e non delle macchine.

Abaco1
06-02-2007, 22:57
Più che altro, ad un motore di ricerca con algoritmi di ranking validi non servono molte persone per dare una ripulita ai risultati.
Anche perché la stragrande maggioranza dell'e-commerce e/o del denaro che gira è concentrato in pochissimi settori, il che semplifica e riduce il lavoro da svolgere.
Un pò di persone di cui si fidano le potranno pure trovare, no?
Oltretutto quelle le possono licenziare quando vogliono, gli spammer no.

sandro28
07-02-2007, 10:22
Originariamente inviato da Abaco1
Oltretutto quelle le possono licenziare quando vogliono, gli spammer no.
Magari i corrotti sono quelli che licenziano.
Purtroppo dell'uomo non ci si può fidare.
Meglio fidarsi della macchina che ha costruito per quanto imperfetta sia.

Abaco1
07-02-2007, 10:56
Annoto che, per le modalità in cui lavorano oggi i Google Rather, le probabilità che facciano danni in malafede è meno che simbolica (errori invece ce ne sono stati, uno di questi oltre ad essere corretto è stato pure reso pubblico).
Lavorano in gruppo, per cui dovrebbero essere d'accordo tutti, inoltre mica decidono chi va su, giacché l'attività riguarda la rimozione dello spam: anche se uno fosse in malafede (e non credo assolutamente) dovrebbe:
A) Coinvolgere tutti gli altri.
B) Buttare giù tutti i concorrenti. Un conto sarebbe tirare su un sito, ma è assurdo è pensare di buttare giù tutti gli altri.

Inoltre mica devono recensire il Web, il lavoro da svolgere è molto meno, e mica sono hobbysti che poi debbono anche andare a lavorare: fra il lavoro complessivamente ridotto e la disponibilità di tempo gli basta avere pochissime persone fidate, se le vogliono trovare non hanno certo nessuna difficoltà a farlo.
A parte che quelli che licenziano sono già oggi dipendenti di Google, per cui è stravagante porre la questione in questi termini: se volessero fare danni li farebbero comunque.
Ma..... Quello che mi colpisce sempre è: che cavolo di gente siete abituati a frequentare :master: :bhò: :incupito: (sorvolando sull'abitudine di molti di giudicare gli altri usando sè stessi come parametro)?
Perché convinzioni del tipo:

Purtroppo dell'uomo non ci si può fidare. nascono dalle persone che si frequentano (realisticamente più offline che online).

sandro28
07-02-2007, 11:05
Originariamente inviato da Abaco1
Annoto che, per le modalità in cui lavorano oggi i Google Rather, le probabilità che facciano danni in malafede è meno che simbolica (errori invece ce ne sono stati, uno di questi oltre ad essere corretto è stato pure reso pubblico).
Lavorano in gruppo, per cui dovrebbero essere d'accordo tutti, inoltre mica decidono chi va su, giacché l'attività riguarda la rimozione dello spam: anche se uno fosse in malafede (e non credo assolutamente) dovrebbe:
A) Coinvolgere tutti gli altri.
B) Buttare giù tutti i concorrenti. Un conto sarebbe tirare su un sito, ma è assurdo è pensare di buttare giù tutti gli altri.

Inoltre mica devono recensire il Web, il lavoro da svolgere è molto meno, e mica sono hobbysti che poi debbono anche andare a lavorare: fra il lavoro complessivamente ridotto e la disponibilità di tempo gli basta avere pochissime persone fidate, se le vogliono trovare non hanno certo nessuna difficoltà a farlo.
A parte che quelli che licenziano sono già oggi dipendenti di Google, per cui è stravagante porre la questione in questi termini: se volessero fare danni li farebbero comunque.
Ma..... Quello che mi colpisce sempre è: che cavolo di gente siete abituati a frequentare :master: :bhò: :incupito: (sorvolando sull'abitudine di molti di giudicare gli altri usando sè stessi come parametro)?
Perché convinzioni del tipo:
nascono dalle persone che si frequentano (realisticamente più offline che online).
Scusa, ma che differenza c'è tra la gente online e quella offline, non riesco proprio a coglierla.

Evi|A|ivE
07-02-2007, 11:35
Ma d'accordissimo sull'apporto umano alla rimozione dello spam "raffinato" che aggira i controlli!

Quel che dà da pensare è che certi spam sono cosi grossolani e madornali tanto da far sorgere un dubbio "ma mountain view ci fanno o ci sono?"
Ovvio che sarebbe un commento riduttivo visto che la gli algoritmi cui si basan le catalogazioni per le SERP son complicatissimi.
Ma appunto per questo mi chiedo come sia possibile non riuscire ad automatizzare una cosa del tipo "30 volte la stessa parola su 10 = il testo non è normale O COMUNQUE è scritto da cane. Vade retro!"

Se non erro le stop words vengon rimosse e non calcolate, per snellire cmq la mole di dati che si raccolgono su un sito.
E quindi ecco testi "web agency posizionamento web siti milano roma genova web design web seo posizionamento gooogle motori yahoo web realizzazione siti web perepe qu qua un due tre trallalle".

Ok che non possono catalogare tutti gli articoli, preposizioni ecc.. ma almeno un controllo sul numero di parole "buone" raffrontato a quelle "stop" si poterbbe pure fare.

E ci va tanto a capire che se su 100 parole ci sono 4 articoli/preposizioni ...qualcosa nel testo non va?

Per queste cose non credo sia necessario un ominio che pigia il tasto "ban".
Sarebbe un'offesa all'intelligenza umana :)

sandro28
07-02-2007, 11:42
Originariamente inviato da Evi|A|ivE


Quel che dà da pensare è che certi spam sono cosi grossolani e madornali tanto da far sorgere un dubbio "ma mountain view ci fanno o ci sono?"

Infatti è questo che insinua il dubbio.

Loading