Alla scoperta del deep web


Alla scoperta del deep web

Quella parte di Internet sconosciuta ai motori di ricerca.

[ZEUS Newswww.zeusnews.com – 03-03-2009]

Foto via Fotolia

Pensiamo a Internet e immaginiamo un mondo sconfinato: desideriamo trovare qualcosa e immediatamente cerchiamo con Google che “tutto sa” della rete.

Pare che non sia affatto così, almeno per quanto attiene le capacità dei motori di ricerca di scandagliare la Rete. Le pagine ma soprattutto i contenuti visitati dagli spider pare infatti siano solo una minima parte di quelli effettivamente presenti online. Internet sarebbe come un iceberg: ciò che si vede è di molto inferiore a ciò che resta immerso sott’acqua.

Là fuori ci sarebbe tutto un web nascosto – o deep web come si usa dire – non indicizzato dai motori di ricerca e di fatto, se non proprio introvabile, sicuramente poco utilizzabile. Si parte dai siti interamente in flash, che al momento non vengono correttamente visti dagli spider che solcano la rete, ma ci sono anche uno sterminato volume di informazioni, dati, pagine, risorse.

Non viene indicizzato, per esempio, tutto quello che è disponibile solo a pagamento, ma anche quei contenuti che vengono esposti sul web in vetrina per poco tempo come articoli e notizie on line dei vari portali o testate giornalistiche e che in breve spariscono alla vista e anche ai link incrociati, divenendo di fatto irraggiungibili.

Allo stesso modo sono non tutto visibili altri contenuti inseriti in formati non tipicamente testuali propri delle pagine web come ad esempio file Pdf (solo recentemente indicizzati da Google), video, fogli elettronici, database e molti altri esempi: tutto ciò che non è correlato al web da hyperlink diretti utilizzati dai crawler per navigare, scoprire e indicizzare i contenuti di Internet.

Secondo una società specializzata nell’indicizzazione dei contenuti dinamici, questa manchevolezza implicherebbe che solo l’un per cento dei contenuti presenti su Internet sia indicizzato. Probabilmente si tratta di stime eccessivamente pessimistiche, comunque il dato deve far riflettere.

Questa mole di dati è naturalmente estremamente appetibile per chi di mestiere si occupa di indicizzare il web. Non stupisce il fatto che Google abbia costituito dei gruppi di lavoro per recuperare queste informazioni seppellite nel web profondo, con la sfida di riuscire a creare algoritmi di ricerca in grado di rispondere a domande che prevedono un ragionamento alla base, cioè con un approccio semantico effettivamente funzionante.

Ma Google non è certo da sola: Kosmix è una start-up che vede tra i propri fondatori Jeffrey Bezos (già amministratore delegato di Amazon) nata con il compito di svelare e recuperare questo “mondo sommerso”. Juliana Freire dell’Università dello Utah ha creato il progetto DeepPeep.

I motivi sono ovvi: ciò che non è indicizzato non è sostanzialmente accessibile e utilizzabile e – a parità di algoritmo di ricerca e analisi – i risultati dovrebbero affinarsi con un maggior numero di dati da cui estrapolare il risultato della ricerca.

Newsletter
La newsletter e’ gratuita e permette di essere sempre aggiornati sulle novita’ del sito, del forum e del blog di Zeus News. Iscriviti.

Feed RSS
Il Feed RSS ti consente di leggere i titoli anche senza collegarti al sito. Abbonati.

Articoli correlati

Lycos Europa sta per chiudere di Zeus News
Solo quattro siti su cento seguono gli standard di Zeus News
Fare ricerche online mantiene in forma il cervello di Zeus News
L’EU ai motori: cancellate i dati degli utenti di Zeus News
Due motori semantici per ricerche più precise di Zeus News

Alla scoperta del deep web was originally published on The Puchi Herald Magazine

Advertisements

Alla scoperta del deep web


Alla scoperta del deep web

Quella parte di Internet sconosciuta ai motori di ricerca.

[ZEUS Newswww.zeusnews.com – 03-03-2009]

Foto via Fotolia

Pensiamo a Internet e immaginiamo un mondo sconfinato: desideriamo trovare qualcosa e immediatamente cerchiamo con Google che “tutto sa” della rete.

Pare che non sia affatto così, almeno per quanto attiene le capacità dei motori di ricerca di scandagliare la Rete. Le pagine ma soprattutto i contenuti visitati dagli spider pare infatti siano solo una minima parte di quelli effettivamente presenti online. Internet sarebbe come un iceberg: ciò che si vede è di molto inferiore a ciò che resta immerso sott’acqua.

Là fuori ci sarebbe tutto un web nascosto – o deep web come si usa dire – non indicizzato dai motori di ricerca e di fatto, se non proprio introvabile, sicuramente poco utilizzabile. Si parte dai siti interamente in flash, che al momento non vengono correttamente visti dagli spider che solcano la rete, ma ci sono anche uno sterminato volume di informazioni, dati, pagine, risorse.

Non viene indicizzato, per esempio, tutto quello che è disponibile solo a pagamento, ma anche quei contenuti che vengono esposti sul web in vetrina per poco tempo come articoli e notizie on line dei vari portali o testate giornalistiche e che in breve spariscono alla vista e anche ai link incrociati, divenendo di fatto irraggiungibili.

Allo stesso modo sono non tutto visibili altri contenuti inseriti in formati non tipicamente testuali propri delle pagine web come ad esempio file Pdf (solo recentemente indicizzati da Google), video, fogli elettronici, database e molti altri esempi: tutto ciò che non è correlato al web da hyperlink diretti utilizzati dai crawler per navigare, scoprire e indicizzare i contenuti di Internet.

Secondo una società specializzata nell’indicizzazione dei contenuti dinamici, questa manchevolezza implicherebbe che solo l’un per cento dei contenuti presenti su Internet sia indicizzato. Probabilmente si tratta di stime eccessivamente pessimistiche, comunque il dato deve far riflettere.

Questa mole di dati è naturalmente estremamente appetibile per chi di mestiere si occupa di indicizzare il web. Non stupisce il fatto che Google abbia costituito dei gruppi di lavoro per recuperare queste informazioni seppellite nel web profondo, con la sfida di riuscire a creare algoritmi di ricerca in grado di rispondere a domande che prevedono un ragionamento alla base, cioè con un approccio semantico effettivamente funzionante.

Ma Google non è certo da sola: Kosmix è una start-up che vede tra i propri fondatori Jeffrey Bezos (già amministratore delegato di Amazon) nata con il compito di svelare e recuperare questo “mondo sommerso”. Juliana Freire dell’Università dello Utah ha creato il progetto DeepPeep.

I motivi sono ovvi: ciò che non è indicizzato non è sostanzialmente accessibile e utilizzabile e – a parità di algoritmo di ricerca e analisi – i risultati dovrebbero affinarsi con un maggior numero di dati da cui estrapolare il risultato della ricerca.

Newsletter
La newsletter e’ gratuita e permette di essere sempre aggiornati sulle novita’ del sito, del forum e del blog di Zeus News. Iscriviti.

Feed RSS
Il Feed RSS ti consente di leggere i titoli anche senza collegarti al sito. Abbonati.

Articoli correlati

Lycos Europa sta per chiudere di Zeus News
Solo quattro siti su cento seguono gli standard di Zeus News
Fare ricerche online mantiene in forma il cervello di Zeus News
L’EU ai motori: cancellate i dati degli utenti di Zeus News
Due motori semantici per ricerche più precise di Zeus News

Alla scoperta del deep web was originally published on The Puchi Herald Magazine