Getfiche

Getfiche

SCARICARE EDONKEY2000

Posted on Author Brajas Posted in Rete


    Contents
  1. Lista Server eMule Ottobre 2019 (Aggiornamento)
  2. Execution Stats
  3. Server met
  4. eDonkey GUI Version – Download per PC Gratis

Download eDonkey GUI Scarica e condividi file con milioni di persone. Conosci Overnet e eDonkey? Ora questi due programmi si sono uniti. eDonkey può essere considerato una specie di papà di eMule. Se eri un fan o sei un nostalgico di questo client anziano, scarica gratis eDonkey SCARICARE EDONKEY - Questo permette a client che fanno uso della rete Kad di scaricare file anche da client che non ne fanno uso, tuttavia l'uso di. eDonkey (anche eDonkey, spesso abbreviato in eD2k) è una rete peer-to- peer per la Questo permette a client che fanno uso della rete Kad di scaricare file anche da client che non ne fanno uso, tuttavia l'uso di questa rete secondaria è.

Nome: edonkey2000
Formato:Fichier D’archive
Sistemi operativi: MacOS. iOS. Windows XP/7/10. Android.
Licenza:Solo per uso personale (acquista più tardi!)
Dimensione del file: 57.15 MB

Lo stesso termine è usato anche per riferirsi al client originale realizzato dall' azienda di McCaleb, la MetaMachine. Si stima che a metà del la rete fosse composta da un numero di utenti variabile tra due e tre milioni che condividevano tra i milioni e i due miliardi di file, con un numero di server variabile tra e La società si impegnerà inoltre ad evitare che le precedenti versioni del software in circolazione possano continuare ad operare.

I client eDonkey si connettono alla rete per condividere i propri file stabilmente memorizzati sul computer dell'utente o per cercare file da scaricare. I server eDonkey fungono da centri di comunicazione per i client o interfacce verso la rete peer to peer vera e propria permettendo agli utenti di localizzare i file all'interno della rete.

Client e server eDonkey sono disponibili per i sistemi Windows , Macintosh , Linux e altre varianti di Unix. A causa del costante cambiamento della rete dei server i client devono dunque aggiornarne costantemente la lista.

Anche gli utenti della rete sono identificati in modo univoco e permanente tramite un valore hash. L'identificazione degli utenti è realizzata con un protocollo sicuro a chiave pubblica , per impedire un utilizzo scorretto degli identificatori. Alcuni di questi siti hanno anche liste aggiornate dei server attivi per permettere ai client di aggiornarsi.

Un punto debole della rete eDonkey è che il suo funzionamento dipende dalla presenza di server speciali, che devono rimanere permanentemente attivi per fornire i loro servizi ai client. Questi server sono sottoposti a un pesante traffico di rete e sono, almeno in teoria, vulnerabili ad attacchi che possono comprometterne il funzionamento. Per sopperire a questo problema la MetaMachine ha sviluppato una nuova versione del protocollo eDonkey chiamata Overnet.

A sua volta, eMule , il client eDonkey di gran lunga più diffuso, ha sviluppato una sua rete, chiamata Kademlia o per brevità Kad, che permette ai client di comunicare tra di loro senza la necessità della presenza dei server.

Questa rete supplementare serve esclusivamente per la ricerca di file e per l'identificazione dei client che hanno a disposizione i file a cui si è interessati, ma non influisce sullo scaricamento dei file stessi.

Lista Server eMule Ottobre 2019 (Aggiornamento)

Questo permette a client che fanno uso della rete Kad di scaricare file anche da client che non ne fanno uso, tuttavia l'uso di questa rete secondaria è fortemente consigliato perché permette alla rete eDonkey di gestire un numero molto più alto di utenti senza perdere in prestazioni.

Una volta identificati i client che hanno a disposizione il file che si vuole scaricare, o anche solo una parte di esso, si entra in una coda di attesa presente in ognuno dei client contattati. Una volta raggiunta la cima della coda d'attesa, inizia il vero e proprio scaricamento del file.

La velocità con cui si scala di posizione nelle code di attesa fino ad ottenere il diritto a scaricare, dipende dai crediti che il client da cui si scarica ha assegnano al client che vuole scaricare.

Questi crediti dipendono da vari fattori tra cui: il tempo di attesa nella coda stessa; la priorità del file che si vuole scaricare; la quantità di byte che il client ha condiviso con gli altri utenti della rete, detto upload. Il software per server ed2k più utilizzato è Lugdunum. Da Wikipedia, l'enciclopedia libera. Portale Informatica. Portale Software libero.

Nonostante una serie di controindicazioni all'uso dei cookie, l'attuale navigazione web non sembra poterne fare a meno. Una delle più valide alternative ai cookie , applicabile nel caso in cui le pagine di risposta siano sempre generate da un CGI, è quella di inserire nelle stesse, dei moduli form contenenti dei controlli nascosti , i cui valori rappresentano le informazioni di stato relative alla navigazione svolta fino al momento della generazione della pagina contenente i controlli nascosti.

Inoltre, nel caso in cui la navigazione prosegua utilizzando il metodo POST, questi valori non compaiono nella URI, ottenendo prestazioni del tutto equivalenti a quelle dei cookie, al prezzo di ri-generare ogni volta la pagina di risposta. La differenza sostanziale tra l'uso dei cookie e quello delle variabili nascoste, è che mentre i primi sopravvivono fino alla loro data di scadenza, permettendo di conservare l'informazione di stato anche tra visite distanti nel tempo, le variabili nascoste possono invece accumulare informazioni di stato, solo nel caso in cui si continui a visitare sempre lo stesso sito, in modo che le variabili presenti nella nuova pagina, dipendano dalle scelte operate alla pagina precedente.

Si tratta della possibilità di ospitare su di un medesimo server web, più siti corrispondenti ognuno ad un diverso dominio, ed un diverso intestatario. Il primo, consiste nel dotare il computer che ospita il sito web di più indirizzi IP possibilità indicata con il termine multihoming , ognuno corrispondente ad un diverso dominio, e consente di discriminare le richieste in base all'IP di destinazione del socket.

Il secondo metodo consiste nell'utilizzo di un unico IP, su cui il DNS risolve tutti i domini associati ai siti che sono quindi alias di un unico CNAME , e nel differenziare le richieste in base alla intestazione Host presente nella richiesta, che appunto riferisce a riguardo del dominio che compare nella URI di richiesta. Un esempio di configurazione di server virtuale è trattato nelle esercitazioni nel contesto della attivazione di un sito sicuro.

I file di log del server web contengono molte informazioni relative alle pagine che sono richieste, all'orario, al codice di risposta, allo user agent, al referente della pagina visitata, e sono tipicamente esaminati una volta al giorno, da parte di programmi appositi, allo scopo di generare dei report accessibili via web che caratterizzano le modalità di fruizione dei contenuti del sito.

Due di queste applicazioni open source sono Webalizer e Awstats , il primo scritto in c, ed il secondo in perl. Una diversa tecnica di analisi si basa sul page tagging , e consiste nell'inserire nelle pagine un riferimento ad un oggetto, oppure del codice javascript , tale da produrre un accesso ad un server remoto tipicamente, di terza parte che memorizzarà la URI che lo ha referenziato, e che altrettanto tipicamente, consegnerà al visitatore un cookie per riconoscerlo le volte successive.

In questo blog troviamo un confronto di diverse metodologie di analisi.

Execution Stats

Un servizio molto diffuso, forse anche perché gratuito, è quello offerto da Google Analytics video. La filosofia del CMS nasce al difuori del web, come una metodologia di lavoro collaborativo basato sullo scambio e sulla redazione partecipata di documenti. Un approccio simile si è quindi naturalmente fuso con le possibilità offerte dal web, non ultima quella del telelavoro ; inoltre, mettere un CMS su web significa anche rendere i propri risultati editoriali direttamente disponibili alla fruizione del grande pubblico.

Un CMS web è tipicamente realizzato come una applicazione CGI abbastanza articolata, che consente l'editing dei contenuti senza richiedere la conoscenza di HTML, CSS, SQL, e dei linguaggi di scripting, la cui presenza viene nascosta da una funzione di interfaccia utente realizzata sempre via web.

L'aspetto delle pagine erogate da un CMS-web risulta in genere omogeneo, mentre i contenuti sono coerenti anche se presentati sotto viste differenti, questo grazie alla adozione di fogli di stile in comune alle diverse sezioni, ed alla generazione dinamica delle diverse pagine a partire dalle informazioni memorizzate in unico database.

Nella sezione specifica dei riferimenti, possiamo trovare i link ai principali CMS esistenti, ed ai siti che li mettono a confronto. A partire dal concetto generale di CMS e dai principi su cui si fonda, nel tempo si sono sviluppate applicazioni particolari della tecnologia, orientate alla gestione di problemi specifici, e che offrono supporto ad esigenze particolari. Vediamone alcune. Il termine Blog è una contrazione di web log , a sua volta parafrasi di travel log , o libro di bordo.

Server met

Infatti, un blog è un CMS, in cui un singolo individuo espone pensieri, riflessioni, punti di vista e sensazioni, accludendo al sito contenuti di vario genere, link ad altri siti, e permettendo in genere ai visitatori di arricchire l'esperienza di interazione collettiva mediante l'inserimento di commenti individuali, trasformando ogni editoriale immesso nello spunto di discussione per un forum telematico, con il risultato di misurare il polso dei frequentatori del sito.

Blogger poi acquisito da Google e rinominato blogspot , o Wordpress , od uno di questi ; oppure installare presso un provider che offre hosting, o su di una propria macchina in rete, un applicativo apposito , come ad esempio Wordpress , di cui abbiamo anche un video.

Sebbene un wiki potrebbe esser fatto ricadere sotto la categoria più generale dei CMS, possiede alcune caratteristiche particolari, che lo differenziano in modo unico. Al di là dell'approccio collaborativo, le caratteristiche esposte sono ben utili anche nel caso in cui il sito sia mantenuto da una persona sola, oppure da un gruppo di persone che sono coinvolte in un progetto comune, come ad esempio lo sviluppo di un software open source es con trac , per il quale non valga la pena di progettare un nuovo sito ad-hoc.

Si tratta in questo caso di siti orientati alla compravendita di beni , o che comunque prevedono transazioni finanziarie, come ad es. In linea di principio si possono far ricadere questi casi in quello del CMS, a cui si aggiunge l'utilizzo di connessioni sicure, al fine di garantire il navigante relativamente all'identità del soggetto che eroga il servizio.

Nel caso del commercio elettronico vengono tipicamente utilizzati dei cookies allo scopo di autenticare il navigante, e mantenere per tutta la durata delle sessione l'informazione di stato rappresentata dalla metafora dal carrello. Nel caso dell'home-banking infine, a fronte dei potenziali rischi legati al pieno controllo telematico di un intero conto corrente, spesso i meccanismi di autenticazione basati su di una tradizionale password non sono considerati sufficientemente sicuri, e viene allora richiesta una seconda password usa e getta , pre-distribuita direttamente al cliente, od inviatagli mediante un SMS contemporaneo.

In questa incarnazione di CMS, un aspetto particolarmente rilevante è la progettazione del DataBase che memorizza le diverse personalizzazioni e condivisioni di ogni appartenente alla comunità, e le relazioni che intercorrono tra essi. Attualmente nella versione 2. Consiste in un dialetto dell'XML, orientato alla descrizione dei contenuti di un sito web, e da questo punto di vista deve molto alle sue origini, legate alle definizione di metadata e RDF.

Un esempio di RSS 2. La funzione di feed reader viene ad oggi svolta anche da client email e browsers, e questi ultimi riescono ad accorgersi autonomamente della presenza nelle pagine ricevute della URI del feed RSS, nel qual caso ne evidenziano il logo all'interno della propria barra degli indirizzi. Un approccio simile ma diverso è quello degli aggregatori , che pure raccolgono i feed RSS provenienti da fonti diverse, ma li compongono a formare una nuova pagina web, i cui contenuti hanno origine a partire dai diversi feed a cui l' aggregatore è iscritto.

D'altra parte, la formalizzazione di meccanismi di descrizione sommaria dei contenuti accessibili via web, è altrettanto utile ai fini della indicizzazione di siti strutturati da parte di motori di ricerca: a tale scopo, si è verificata la convergenza su di un insieme di tag XML definiti per questo scopo, ed identificati come sitemap. Questo termine nasce dalla contrazione o dalla sinergia? Si tratta della ricezione in differita di contenuti multimediali audio, video preregistrati, ed annunciati per mezzo di feed RSS o Atom.

In RSS 2. In Atom , viene usato allo stesso scopo il termine enclosure , come possibile valore dell'attributo rel che sta per relazione dell'elemento link. Da citare infine l'esistenza di programmi applicativi es. Miro e Boxee che, facendo anche uso di feed podcast, consentono di trasformare il computer in una sorta di WebTV mediante la quale realizzare una scaletta di contenuti multimediali da fruire sequenzialmente, come avviene con il normale apparecchio televisivo.

In questo modo, il client potrà recuperare la copia dell'oggetto richiesto direttamente presso l'elemento di replica a lui più prossimo, evitando di sovraccaricare la rete internazionale di transito con richieste spesso uguali, e provenienti da client topologicamente vicini tra loro.

Sebbene questa illustrata possa sembrare la classica funzione da far svolgere ad un elemento proxy , in questo caso i contenuti da replicare in prossimità del client non sono qualsiasi, ma sono solo quelli per i quali è previsto il servizio. Un esempio di CDN è l'insieme dei mirror proposti come siti alternativi da cui scaricare un determinato contenuto, e predisposti da organizzazioni come Sourceforge.

Nella sua forma più basilare, al client che richiede il download di un contenuto viene visualizzata una pagina, in cui si offre di scegliere tra un elenco di siti alternativi per il download. Attualmente, si tende ad evitare che l'umano seduto davanti al browser debba scegliere di sua iniziativa, proponendo direttamente una scelta determinata dall'esito di servizi di geolocalizzazione basati su di una mappatura approssimata associata all'indirizzo da cui proviene la richiesta, come ad esempio quelli offerti da Maxmind , usati ad esempio da FlagFox.

Come fatto già notare, delegare a dei dispositivi di replica la consegna dell'oggetto richiesto all'utente finale è molto simile a quanto ottenibile mediante un proxy , che intercetta la richiesta originaria perché si trova sul suo stesso percorso, oppure che è esplicitamente designato dal client a svolgere il ruolo di proxy. In una CDN, invece, si tenta di instradare la richiesta stessa del client, verso l'elemento di replica più idoneo ossia più prossimo al client , che si occuperà quindi di servirla.

Mentre presso wikipedia troviamo una breve panoramica della problematica, la RFC illustra alcuni metodi comunemente in uso, e presso globule troviamo una trattazione assai più approfondita. E' il sistema di instradamento della richiesta adottato più o meno da Akamai , che gestisce un nutrito insieme di surrogati , dispiegati per i quattro angoli del pianeta, e che rivende l'uso del servizio a chi intende farne uso.

Il suo utilizzo si basa nell'identificare la URI dell'oggetto da distribuire con un nome a dominio per il quale la stessa Akamai è autorevole. Quando un client ne farà richiesta, il DNS autorevole di Akamai risolve l'indirizzo applicativo dell'oggetto con l'indirizzo IP associato all'elemento di replica più prossimo al client, in base alla conoscenza dell'indirizzo IP del DNS a cui il client ha inoltrato la richiesta di risoluzione originaria, e che per effettuare la ricorsione, ha contattato il DNS di Akamai.

Ognuno dei surrogati, quindi, dovrà identificare la copia dell'oggetto mediante la medesima sezione path della URI che lo identifica. In questo caso, l'instradamento della richiesta è attuato dal portale a cui si rivolge il client, in base all'indirizzo IP del client stesso, noto al portale al momento della ricezione della richiesta.

Dopo aver inoltrato questa informazione alla entità di gestione della CDN, in modo che questa individui il nodo di replica più idoneo per quel client, il portale risponde alla richiesta, indicando la URI relativa alla copia dell'oggetto localizzata presso il surrogato indicato dall'entità di controllo. In tal caso se ci fosse un solo e unico server ad erogare i contenuti verso tutti i player, questo inevitabilmente dopo qualche migliaio di connessioni saturerebbe la propria banda di uscita, rendendo matematicamente impossibile raggiungere bacini di audience dell'ordine dei milioni di persone, come è invece possibile con le trasmissioni radio.

Una soluzione a questo problema in realtà esisterebbe, ed è quella basata sulla modalità di istradamento multicast , che potrebbe realizzare un albero di distribuzione dei contenuti basato sulla replica da parte dei router di Internet dei pacchetti in arrivo, verso ognuna delle diverse destinazioni reti in uscita, presso le quali è noto che ci siano ricevitori attivi. Alcune considerazioni hanno ostacolato l'interconnessione dei protocolli di routing multicast tra ISP differenti, e reso non percorribile questo approccio.

Quindi, un protocollo di routing se abilitato provvede a propagare tra i router di Internet l'informazione che qualcuno è in ascolto per quel gruppo, in modo che i router memorizzino, per ogni gruppo, su quali interfacce si è manifestato interesse per la ricezione. Per un approfondimento, vedi l'appendice. A questo punto, se un computer inizia a trasmettere pacchetti che hanno il gruppo ossia l'indirizzo IP multicast come destinazione , questi vengono inviati dal default gateway usato dalla sorgente se partecipante al routing multicast verso le interfacce di uscita dalle quali è arrivata la notizia che più giù qualcuno li vuole: lo stesso avviene anche per gli altri ruoter, e voilà!

Notiamo ora due cose:. Dato che i nodi di replica di una CDN sono sparsi in giro per Internet, e che i contenuti possono essere distribuiti tra gli stessi, quel che si ottiene è una sorta di rete sovrapposta Overlay Network , che sfrutta i collegamenti di Internet per permettere lo scambio dei contenuti tra i nodi dell' Overlay.

La differenza tra questi ultimi due termini risiede nel fatto che con ALM si indica il caso in cui i nodi dell'Overlay sono realizzati dagli stessi computer situati presso gli utenti finali: per questo motivo, un ALM viene anche indicato come End Sytems Multicast. Al contrario, il termine Overlay Multicast è usato per identificare il caso in cui i nodi dell' overlay sono disposti direttamente nella core network , dunque sotto il coordinamento degli stessi ISP, permettendo di realizzare un albero di distribuzione molto più efficente, anche per merito di un maggior fan-out di uscita per ogni nodo, in modo da limitarne di molto la profondità.

Data l'importanza dell'argomento per lo sviluppo di internet in campo telemediale, si è formato un gruppo di lavoro IRTF, SAMRG Scalable Adaptive Multicast Research Group , nei cui atti del 66 o meeting IETF , troviamo una interessante survey sull'argomento, mentre è in corso di perfezionamento un primo draft sull'argomento..

In termini molto generali, le reti p2p sono caratterizzate dalla adozione di un metodo di indirizzamento di strato applicativo autonomo e indipendente dal DNS , e si distinguono tra loro in base ai metodi utilizzati per risolvere una serie di problemi:. Relativamente agli ultimi due punti, spesso gli oggetti da condividere sono suddivisi in sotto-parti dette chunks , consentendo a chi li richiede di scaricarli in contemporanea dai diversi altri peer che ne hanno annunciato la disponibilità.

Le reti peer to peer possono inoltre essere classificate in base alla loro topologia, come.

eDonkey GUI Version – Download per PC Gratis

E' il nome di un protocollo peer to peer nato per consentire il download contemporaneo di uno stesso file da parte di un numero molto elevato di clients, senza per questo sovraccaricare il sito di origine, in quanto tutti i clients cooperano nello scambiarsi tra di loro parti di file già scaricati, senza doverle richiedere di nuovo alla sorgente. Il file è suddiviso in parti di dimensione ridotta per facilitare le operazioni di scambio tra i peer.

Inizialmente, deve essere presente almeno un peer detto seed che detiene una copia completa del file. Con il passare del tempo, aumenta il numero di peer che hanno già completato lo scaricamento complessivo, per questo detti seeders , ovvero leechers qualora non lo abbiano ancora completato. L'indirizzo del tracker viene acquisito dai peer a seguito della visita di un sito web o torrent index da cui si ottiene via HTTP un file con estensione.

Il tipo MIME del. Quindi, mediante le fingerprint dei singoli pezzi chunks i peer possono verificare che le copie ricevute dagli altri corrispondano a quanto annunciato dal. Dopo aver contattato il tracker, e ricevuta la lista parziale degli altri peer, il nostro peer effettua delle connessioni TCP bidirezionali con gli altri, all'inizio della quale sono scambiate le informazioni relative a quali pezzi di file siano in loro possesso mediante un bitfield , e quali no; d'altra parte, ogni peer contattato ha già svolto lo stesso colloquio con tutti gli altri suoi peer.

Una eccezione a questa regola si ha subito dopo la partenza di un peer, quando invece la scelta di quale chunk richiedere per primo avviene in modo casuale, in modo da procurarsi velocemente qualcosa da poter scambiare, dato che i pezzi rari verrebbero molto probabilmente scaricati più lentamente proprio perché disponibili solo da parte di pochi peers.

Si tratta di una rete p2p di tipo centralizzato tuttora impiegata da alcune applicazioni , sebbene i creatori, in seguito ad un accordo con l' RIAA , abbiano ritirato i programmi inizialmente sviluppati. I files che si intendono condividere sono identificati in base alla somma hash di bit ottenuta a partire dal loro contenuto, e che quindi risulta la stessa anche se il file è rinominato. Per l'esattezza, il file è suddiviso in segmenti di 9.

Gli identificatori o link ed2k vengono quindi registrati dai peer presso un server centralizzato assieme al nome del file, in modo che altri peer che lo cercano possano, citando le parole che compaiono nel nome, ricevere dal server una lista di files che hanno quelle parole nel titolo, assieme ai link ed2k, ed al socket indirizzo IP e porta presso cui contattare i peer che ne hanno annunciato il possesso.

Quando un peer sceglie di scaricare il file indicato da uno dei link ricevuti, contatta i peer che lo detengono, i quali provvedono a gestire delle code d'attesa per ogni richiesta ricevuta.

Evidentemente la presenza dei server centralizzati costitusce un elemento di vulnerabilità del sistema, sia dal punto di vista della affidabilità che da quello di possibili controversie legali.

Per questo il protocollo originale venne affiancato da un altro decentralizzato Overnet , mentre l' applicazione peer tuttora più diffusa emule ha adottato allo stesso stesso scopo Kademlia. Si tratta di un modo di realizzare una Tabella Hash Distribuita o DHT , e svolgere in modo decentralizzato la ricerca del nodo dell'overlay che detiene un determinato file, mentre il download dello stesso avviene come previsto da Edonkey Il nodo intenzionato a condividere un proprio file ne calcola una somma hash SHA-1 di bit con la stessa procedura di edonkey, ed usa questo hash come chiave key con cui memorizzare nella DHT Kad il valore value costituito dal socket IP, porta su cui ascolta il nodo, più il suo identificativo nodeID.

La stessa rete kad è utilizzata anche per conoscere l'hash a partire dal nome del file, o di sue componenti, in modo che non occorra alcuna entità centralizzata, dato che la conoscenza di chi offre cosa è distribuita tra i peer che fanno parte della rete. Distanza tra le chiavi - La modalità di instradamento dei messaggi che i nodi dell'overlay indirizzano verso il nodo responsabile di key , è direttamente legata al particolare schema di partizionamento delle chiavi, che deriva dal calcolo di un valore di distanza d key 1 ,key 2 tra coppie di chiavi, basato sull'operazione di OR esclusivo EXOR eseguita tra le rappresentazioni binarie delle stesse.

Esprimendo il nodeID dei nodi con lo stesso numero di bit usato per le chiavi, la medesima funzione di distanza calcola anche la distanza tra coppie di nodi.

Ad esempio, l' ex-or di due chiavi e risulta pari a ovvero in notazione decimale. Come evidente, la posizione del primo bit differente partendo da sinistra dà il maggior contributo al valore di distanza tra le chiavi.

Albero di partizionamento - La figura a lato mostra un esempio in cui lo spazio delle chiavi è descritto da tre soli bit, che identificano anche i 7 nodi presenti manca il nodo , rappresentati dai cerchietti disegnati in basso. Dal punto di vista di un nodo particolare ad es. Nella seconda lista compaiono e , con il secondo bit diverso, mentre la terza contiene solo , che differisce da solo per l'ultimo bit, e dunque è il più vicino.

La conoscenza degli altri - Un generico nodo non ha una conoscenza completa dell'identità di tutti gli altri nodi presenti, ma ne conosce solo alcuni, e organizza questa informazione in N liste ossia pari al numero di bit del nodeID di k elementi ciascuna es. In pratica quindi le k-liste rappresentano sotto-insiemi delle partizioni descritte sopra; ad esempio la prima lista potrebbe contenere la metà dei nodi quelli con il primo bit diverso , mentre l'ultima lista potrà contenere un solo nodo quello con l'ultimo bit diverso.

Ma dato che il massino numero di nodi per lista è k , ne consegue che la conoscenza degli altri sarà più specifica per i nodi vicini, e vaga per quelli più lontani. Creazione dell'overlay - Quando un nodo entra nella rete per la prima volta, sceglie per se stesso un nodeID casuale di bit, e contatta un nodo di bootstrap , di cui conosce il socket per altre vie, come ad es.

Il nodo di bootstrap, dopo aver memorizzato i dati del nuovo arrivato, ne usa il nodeID per calcolarne la distanza rispetto agli ID presenti nelle proprie k-liste, e da questi sceglie un massimo di k nodeID come i più vicini di se stesso al nodeID del nuovo arrivato. Dato che la distanza-EXOR tra l'ID del richiedente e quello dei nodi ricevuti in risposta è minore di quella tra il richiedente ed il nodo di bootstrap, saranno aggiornate solo le k-liste a destra nell'albero binario dell'ID del nodo di bootstrap.

In tal caso, il nodo con ID più vicino alla chiave cercata sarà quello desiderato. Analizziamo più in dettaglio come si precede:. Le risposte ricevute sono quindi usate per reiterare la richiesta indirizzandola ai nodi più vicini alla chiave, finché non se ne trova uno a distanza zero, oppure non se ne trovano più di ancor più vicini.

Variabilità della popolazione di peer - I nodi che memorizzano un valore vi applicano anche un timeout , scaduto il quale il valore è cancellato, in modo che qualora il nodo che lo ha pubblicato per primo esca dalla rete, l'informazione associata decada. Se al contrario il nodo rimane, è suo compito rinfrescare periodicamente la memorizzazione dei propri dati.

In particolare, se nel frattempo ha fatto il suo ingresso qualche nodeID ancor più vicino alla chiave, dopo un transitorio legato all'evoluzione della propria connettività con l'overlay, sarà presto raggiunto da un messaggio STORE key,value. Indicizzazione e ricerca - Come già descritto, il nodo che intende condividere un file prima calcola l'hash del suo contenuto, e quindi lo usa come chiave per memorizzare il proprio socket, presso cui essere contattato per distribuire il file.

D'altra parte chi cerca il file, lo fa a partire dal suo nome, o da parti di esso, come ad es. Il nodo che condivide il file quindi calcola anche gli hash delle parole che compaiono nel nome del file, e li usa come chiavi per memorizzare un valore costituito dall'hash del contenuto del file e dal suo nome.

In questo modo, chi ricerca una parola interroga la rete Kad utilizzando come chiave l'hash di tale parola, e ottiene i nomi dei file disponibili che la contengono, assieme ai rispettivi hash dei contenuti dei file. Viene quindi inviata una seconda richiesta, usando questa volta come chiave l'hash del file scelto in base al suo nome. E' il nome dato ad una metodologia di esecuzione di applicazioni remote , che fa uso di HTTP come strato di trasporto per il recapito delle invocazioni, per il passaggio dei parametri, e per la ricezione dei risultati.

Benchè l'invocazione di applicazioni remote non contenga assolutamente nulla di nuovo vedi appendice sulla elaborazione distribuita , i Web Service hanno dalla loro la possibilità di far tesoro delle esperienze preesistenti, possiedono una minore cripticità dovuta al formato testuale delle comunicazioni, e godono di una universalità di accesso, legata all'uso della porta 80, riuscendo in tal modo a scavalcare i problemi legati ai firewall.

Per certi versi, si tratta di una evoluzione della logica dei CGI, a cui è stata aggiunta una formalizzazione più stringente per quanto riguarda il meccanismo di passaggio dei parametri, e dei meccanismi di auto-documentazione dei servizi offerti. Inoltre, mentre i CGI sono pensati per essere invocati da parte di un interattore umano che opera dietro la finestra di un browser web, i Web Service sono pensati per essere utilizzati da parte di procedure software.

La struttura dei messaggi segue il paradigma Head-Body , in cui gli Header contengono meta-informazioni riguardanti il routing, la sicurezza e le transazioni, mentre il Body trasporta il contenuto informativo.

I protocolli degli Web Sevices , oltre a prevedere SOAP come meccanismo per inviare i messaggi di esecuzione remota, prevedono l'esistenza di altri protocolli, come il Web Services Description Language WSDL , che descrive come interagire con un determinato servizio, indicando i metodi messi a disposizione, i suoi vincoli protocollo, formato dei parametri di ingresso e delle risposte , ed il suo punto di accesso , ovvero l'URI del Web Service.


Ultimi articoli