Pagina 1 di 2 1 2 ultimoultimo
Visualizzazione dei risultati da 1 a 10 su 16

Discussione: Ai content

  1. #1
    Utente di HTML.it L'avatar di agoago
    Registrato dal
    Jan 2002
    Messaggi
    954

    Ai content

    L'assioma:
    Un' intelligenza artificiale non potra' mai esser certa di riconoscere se un testo e' stato creato da un'altra intelligenza artificiale.

    ---------

    Pertanto un motore di ricerca (in futuro, man mano che passa il tempo) non sara' teoricamente in grado di distinguere con certezza se un documento-sito originale e' stato creato-scritto con un software o manualmente.
    Potra' stabilirlo solo tramite verifica umana.

    Siccome un controllo manuale non puo' competere (in termini di produzione-lavoro-verifica, non qualitativamente parlando ovviamente) con un sistema meccanico-artificiale-automatico, i documenti prodotti artificialmente conquisteranno sempre piu' mercato.

    Teoricamente gli "ai contents" potrebbero alla lunga saturare il web, tanto da annullare (nelle serp) ogni altro contenuto che non provenga da siti semi o "istituzionali".

    --------

    In pratica (e non solo piu' in teoria) ci sono altissime probabilita' che tutti i motori di ricerca entro pochi anni, non siano piu' in grado di dare risultati accettabili per query con key formate da 3 parole od oltre.

    L'unica loro contromisura' sara' inizialmente quella di spingere wm ed utenti nel segnalargli questo nuovo genere di siti.
    Sara' tuttavia una contromisura inutile, perche' comprare un nome di dominio, crearne il contenuto via ai ed hostarlo gia' oggi costa cosi' poco che basteranno pochi giorni in serp per recuperare tutti i costi e guadagnarci abbondantemente.
    Senza contare che non sara' facile per un motore verificare "a mano" magari un milione di "siti segnalati" in un paio di mesi.

    Di certo una bella sfida, soprattutto all'inizio.
    Poi nel tempo sempre piu' facile.

    --------

    Comodo oggi (per i motori) usare l'ai per ordinare il lavoro manuale dei wm.
    Vedremo domani ai contro ai.

    Finche e' durata si son goduti la festa, con canti e balli.
    Ma dal 2008 i suonatori inizieranno a tornare a casa, e con loro i festeggianti.

  2. #2
    agoago, in realtà sono meno propenso a considerare questa ipotesi.
    Personalmente ritengo che, poiché un computer si basa su una logica e nulla avviene per caso (neanche l'output di un valore random con un classico Randomize() in un linguaggio di programmazione avviene casuale) è altrettanto vero che ogni prodotto creato da un computer è soggetto ad una logica, ad uno schema.

    Io posso affinare quanto voglio l'algoritmo che genera il testo ma una volta individuato lo schema sarà banale ritornare indietro e risalire a chi o cosa ha creato quel testo.

    Il problema, a mio avviso, sarà per i MdR (come è già ora) riuscire ad invividuare questa logica in tempi accettabili.


    Mi spiego meglio.
    Ipotizzando che io oggi voglia creare N pagine automaticamente, posso partire con 10 frasi e dire al computer di miscelarne 2 a random (e ribadisco che il concesso "a caso" non esiste in un computer) per pagina.

    Per un MdR evoluto è banale oggi risalire alla logica di questo processo tanto che una soluzione di questo tipo è spesso individuata, parliamo di google, e le contromisure del caso vengono messe in atto.

    Poi posso complicare la cosa e, senza entrare nel dettaglio, ci sono valide possibiità ad oggi di sfruttare un algoritmo complesso per creare testo artificiale sufficientemente evoluto.
    Questo cosa significa? Che i MdR non possono capirlo?

    Non proprio, probabilmente è lo stesso principio di un algoritmo di crittazione. Non è che una chiave crittata non è decifrabile, è che con l'attuale ptenza ed evoluzione del calcolo il tempo necessario a decodificarla non è accettabile.

    Cosa ne pensi?

  3. #3
    Utente di HTML.it L'avatar di Evi|A|ivE
    Registrato dal
    Jun 2002
    Messaggi
    2,171
    hmm

    io, essere (quasi) umano mi accorgo se un testo è "randomizzato".

    Mi basta dare un occhio, banalmente, alla grammatica, oltre che alla relazione semantica tra le varie parole.

    Magari l'effettuare un'analisi "grammaticale" è possibile, ma i costi in termini di infrastrutture che reggano il carico di lavoro è ingiustificato vista l'incidenza dei siti spammoni che fanno uso di testi creati artificialmente.

    Cio non toglie, imho, che un domani a mountain view dicano "uffa... ci tocca proprio comprare un pc nuovo..." ed affiancare al sogno "semantico" anche un motore.. "grammaticale".

    Il bazzicare pigramente il web e l'IT in generale da oltre una decina d'anni mi ha fatto capire una cosa.
    Quello che oggi è difficilmente immaginabile come realizzabile tecnicamente.. magari mi spunta fuori domani mattina.
    [Disclaimer: le | nel nome non son li per far figo, evito solo di trovarmi spammato il nick nelle millemila pagine del forum in serp ..]

  4. #4

    Per un pugno di dollari

    La filosofia del Black Hat Seo è chiara: fregare i motori per riempire il più possibile il portafoglio.

    E' vero che google e company fanno il bello e cattivo tempo, è vero che su internet per avere successo occorre forzare, è vero che esiste la sfida intellettuale tra bhs, wm e i motori, ma ottenere la vittoria e risultati soddisfacenti a qualunque costo, anche riempendo di merdaccia e contenuto artificiale senza senso o ultra ripetuto la rete con milioni di pagine, sinceramente non mi piace.

    Il black hat seo, vale a dire lo spammer, vale a dire colui che crea milioni di pagine dal contenuto insensato, artificiale, o rielaborando tramite software contenuti già esistenti (magari fosse almeno solo quest' ultima la pratica) è anche lui un navigante che ha spesso bisogno di ricercare informazioni.

    Personalmente approvo molte tecniche proibite dai motori e che praticano i bhs, ma solo se usate per spingere o forzare o tirare in alto contenuti non dico utilissimi ed unici, ma almeno decenti.
    E' decente un contenuto creato da un software per quanto possa essere sofisticato?
    Per me no, e credo che lo sarà (indecente) almeno fino a quando vivrò.

    La sfida intellettuale tra motore e bhs crea una spinta dialettica al miglioramento reciproco, senza dubbio. Ma non dimentichiamo il campo di battaglia, le serp, su cui ci sono milioni di "civili" (utenti) che ci rimettono. E non credo che uno spammer faccia tutto questo "solo" per una sfida.
    Quindi mi chiedo:
    ne vale la pena?
    il fine (soldi) giustifica i mezzi?
    Credo che la risposta di uno spammer è ovvia...

    IMHO

  5. #5
    Utente di HTML.it
    Registrato dal
    Jan 2001
    Messaggi
    1,369

    ....

    Prametri come backlink e traffico vero dove li mettiamo?

    La rete di link stabilisce il voto che viene assegnato ad un sito da altri webmaster, il traffico é un voto che viene assegnato dall'utenza. Il tempo é un altro parametro chiaramente indipendente da webmaster e utenti. ...

    Su questo cose i motori si basano e si baseranno sempre secondo me. Io non vedo l'analisi semantica uno strumento valido per i motori di ricerca benché sia affascinante parlarne a scopo accademico.

  6. #6
    Utente di HTML.it L'avatar di Evi|A|ivE
    Registrato dal
    Jun 2002
    Messaggi
    2,171
    si certo, la rete di link.

    e chi stabilisce se un link è buono oppure no?
    non dirmi che se 100 links da blocchetti insensati-my-space valgono come uno o due da parte di siti "con le palle".

    Il traffico? di chi? di un utente? e chi lo traccia? chi puo tracciarlo e dire bellamente "io te controllo!"?

    Il tempo? ecco questo si.. e per fortuna! Solo che i tempi si stanno allungando, e lo son da un beeel po, anche solo per essere valutati in prima istanza.
    fico.. in un mondo fatto di megabAAAAIIItalsecondo.. ti ci vanno anche 2 mesi per vedere una pagina aggiornata?

    Ah si.. i links! ma la gente nn è mica tuta webmastaH,mica tutti possono metteri il giorno a procurarsi links come folli.

    E torniamo al punto di partenza, e la discussione perde di significato.
    e si parlerebbe di links comprati, di links artificiali, di matrici di links studiate ad hoc da chi ha alle spalle networks di siti cazzuti ecc ecc...


    Io mi chiedo solo come mai un motore bello e saccente come G... nn trovi stane pagine con 4 articoli (determinativi o indeterminativi.. fate vobis) in 200 parole -_-°
    [Disclaimer: le | nel nome non son li per far figo, evito solo di trovarmi spammato il nick nelle millemila pagine del forum in serp ..]

  7. #7
    Utente di HTML.it L'avatar di Abaco1
    Registrato dal
    Jan 2001
    Messaggi
    264
    @Alvi2000

    Se il traffico fosse un fattore considerato e non fossero i link il cuore delle valutazioni googoliane, i siti porno straccerebbero sempre i siti di sessuologia, invece succede esattamente il contrario e da anni ormai.
    Succede esattamente il contrario perché, appunto, contano i link e non il traffico.
    Quando mi è successo di litigarmi una prima posizione adult related con Wikipedia (in una sezione di Wikipedia che avevo a mia volta contribuito a migliorare, fra l'altro) anche quando mi scavalcava e mi metteva al secondo posto i riflessi sul traffico ottenuto da BigG sono risultati insignificanti.
    Questo perché, quando gli utenti vedono Wikipedia in vetta a SERPs con chiavi porno, il che accade frequentemente, la saltano di netto.
    Se Google considerasse il fatto che gli utenti SU WIKIPEDIA NON CLICCANO, per quelle chiavi s'intende, la farebbe sprofondare fra i risultati di ricerca, però non lo fa perché il cuore del sistema restano i link e ci sono categorie di siti che, pur essendo parecchio cliccati ed avendo un'utenza fidelizzata, per loro natura di link ne prenderanno sempre pochi.
    Con il risultato di farsi scavalcare nelle SERPs da siti che hanno una capacità strutturalmente inferiore di sviluppare traffico come i siti di sessuologia.
    Oppure da siti che, pur non rappresentando una risposta esatta alla ricerca fatta dagli utenti, sono in condizione di ricevere una cospicua quantità di link, come Tuttoperinternet che è al primo posto persino con una chiave come incesti, che è schifata persino dalla stragrande maggioranza dei siti porno duri e puri.
    Oppure il Tuttogratis.it, che al momento sta pure realizzando una sorprendente doppietta con sesso chiave secca.
    Uno dei motivi per i quali negli ultimi anni c'è stato uno smottamento di pornowebmaster che si stanno trasferendo al settore turismo (mentre non accade il contrario) è che se sei il decimo sito porno che sta in prima pagina con sesso chiave secca ti trovi in centosessantesima posizione o giù di lì, con il risultato di non beccare un visitatore di numero (chi arriva in sedicesima pagina?).
    Mentre ci sono categorie ultracompetitive come i siti di suonerie in cui comunque se arrivi decimo fra i tuoi "pari" un posticino in prima o massimo seconda pagina te lo prendi e quindi un bel pò di soldi li puoi tirare su.
    Il giorno in cui il traffico conterà (se mai arriverà) lo vedremo facilmente perché, fra l'altro, ci sarà la rivincita dei siti porno su quelli di sessuologia ed affini.
    Tuttavia, al momento, facendo un giro veloce veloce, mi sembra che fra i primi 100 risultati con sesso Google riporti appena 4 siti porno (paradossalmente ben rappresentati in prima pagina ma, almeno uno, resiste al massimo una settimana).........
    E' difficile trovare un gatto nero in una stanza buia. Specialmente quando il gatto non c'è.
    http://www.google.com/support/webmas...t&answer=35769
    http://www.e-linux.it/news_detail.php?id=5003 Evil, provaci.
    http://lista.searchenginessite.com/ Social, directory, comunicati ed articoli.

  8. #8
    Utente di HTML.it
    Registrato dal
    Jan 2001
    Messaggi
    1,369
    Quello che intendo dire é che secondo me i motori lavoreranno nella direzione già intrapresa : link - traffico - tempo, più che sull'analisi semantica, per il ragionamento fatto nel primo post da agoago, un'intelligenza artificiale studiata per l'analisi semantica o sintattica può essere fregata da un'altra intelligenza artificiale a costi neanche troppo alti.

    E' ben più dispendioso sviluppare siti e/o reti di siti che ricevono link da siti autorevoli, che godono di traffico diversificato per provenienza e abitudini per molto tempo.

    A parità di condizioni sintetizzate magari da una funzione che miscela links, traffico e tempo allora il motore premierà i contenuti in pratica tendono a fare il contrario di quello che facevano all'inizio quando si indicizzava solo sulla base dei contenuti e delle chiavi in essi contenute.

  9. #9
    Utente bannato
    Registrato dal
    Jun 2003
    Messaggi
    1,011
    Originariamente inviato da Abaco1
    Uno dei motivi per i quali negli ultimi anni c'è stato uno smottamento di pornowebmaster che si stanno trasferendo al settore turismo (mentre non accade il contrario) è che se sei il decimo sito porno che sta in prima pagina con sesso chiave secca ti trovi in centosessantesima posizione o giù di lì, con il risultato di non beccare un visitatore di numero (chi arriva in sedicesima pagina?).
    Sai che non ho capito :master: che vol dire che sono il decimo sito porno e che mi trovo in sedicesima pagina ? Se sono il decimo sito porno con chiave secca "sesso" non dovrei essere in prima pagina ?

  10. #10
    Utente di HTML.it
    Registrato dal
    Jan 2001
    Messaggi
    1,369
    Originariamente inviato da Abaco1
    @Alvi2000

    Se il traffico fosse un fattore considerato e non fossero i link il cuore delle valutazioni googoliane, i siti porno straccerebbero sempre i siti di sessuologia, invece succede esattamente il contrario e da anni ormai.

    i links sono il parametro più importante ma non é più dominante come due anni fa. Io penso che prima i links avessero diritto di veto adesso pesano moltissimo ma se sballi altri parametri puoi essere penalizzato bannato e buttato nel cesso.

    Non é detto che il paramentro traffico sia da intendere quantitativamente, potrebbe trattarsi di una valutazione sulla provenienza del traffico.
    Provenienza web, quindi da quali siti arriva?
    Provenienza geografica, quindi da quali regioni, Paesi arriva?

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2025 vBulletin Solutions, Inc. All rights reserved.