giovedì 25 ottobre 2007

seconda parte, sempre del TERZO paragrafo

Nello stesso periodo, la NSF iniziò a progettare un successore di ARPANET ad altà velocità, che sarebbe stato aperto a tutti i gruppi accademici. Per avere qualcosa di concreto da cui partire, NSF decise di costruire una rete che facesse da spina dorsale per collegare i suoi sei centri di supercalcolatori, il San Diego SuperComputer Center in California, il National Center for Supercomputing Applications a Urbana-Champaign nell'Illinois, il Cornell Theory Center di Itacha nello stato di New York, il Pittsburgh Supercomputing Center in Pennsylvania, il John von Neumann Supercomputer Center a Plainsboro nel New Jersey (vicino a Princeton) e il National Center for Atmospheric Research a Boulder nel Colorado.
Ad ogni supercalcolatore veniva applicato uno speciale software di gestione chiamato Fuzzball (dal nome di un fungo che esplode per disseminare i suoi semi) e funzionava a 56 Kbit e venivano usati i protocolli TCP/IP, appunto per sostituire l’ARPANET. La transizione è stata relativamente lunga e in effetti ARPANET è stata smantellata definitivamente solo nel 1990.
La NSF finanziò anche alcune reti regionali collegate alla spina dorsale per permettere agli utenti di migliaia di università, laboratori di ricerca, biblioteche e musei di accedere a qualunque supercalcolatore e di comunicare fra loro: la rete completa, venne chiamata NSFNET. Essa era collegata ad ARPANET attraverso un collegamento fra un IMP e un fuzzball nella stanza delle macchine presso Carnegie-Mellon. NSFNET fu un successo istantaneo e si saturò immediatamente.
NSF iniziò subito a progettare il suo successore e stipulò un contratto con il consorzio MERIT per realizzarlo. Canali a fibra ottica da 448 kbps vennero affittati dall’MCI per fornire la seconda versione della dorsale. Alcuni computer della IBM vennero usati come router. Molte organizzazioni commerciali desideravano collegarsi ma veniva loro impedito dallo statuto della NSF. Di conseguenza, NSF incoraggiò MERIT, MCI e IBM a formare una società senza scopo di lucro, ANS (Advanced Networks and Services) come primo passo verso la commercializzazione. Nel 1990, ANS rilevò NFSNET e aggiornò i collegamenti da 1,5 Mbps a 45 Mbps per formare la ANSNET.
Nel gennaio 1991 entra in gioco un altro contendente, Sprint, a cui viene affidato il compito di sviluppare le connessioni con le reti della ricerca in Europa, e successivamente con l'Asia, attraverso quello che all'epoca si chiamava NSF ICM (International Connections Manager). Già nel 1992 gran parte delle istituzioni accademiche e di ricerca americane erano collegate a NSFNET e la comunicazione con le reti Internet governative veniva garantita dalla presenza di speciali nodi di scambio (Federal Internet Exchange) sulle due coste: fix-East e fix-West. La connessione con l'Europa e con l'Asia veniva garantita da Sprint.
Nel dicembre del 1991, il congresso degli Stati Uniti emise un decreto che autorizzava NREN (National Research and Educational Network), la rete di ricerca del successore di NSFNET, che doveva raggiungere velocità dell’ordine di gigabit.
Quattro anni più tardi, la dorsale NSFNET non era più necessaria per collegare le reti regionali NSF perché numerose aziende già utilizzavano reti commerciali IP. Quando ANSNET venne venduta a “America Online” nello stesso anno, le reti regionali NSF dovettero uscire e acquistare servizi IP commerciali per potersi collegare.
Per facilitare la transazione ed assicurarsi che ogni rete regionale potesse comunicare con ogni altra rete regionale, NSF offrì contratti a quattro diversi operatori di rete per stabilire un NAP (Network Access Point). Questi operatori erano PacBell (San Franciosco), Ameritech (Chicago), MFS (Washington, D.C.), e Sprint (New York City). Ogni operatore di rete che desiderava fornire servizi di base alle reti regionali NSF doveva collegarsi a tutti i NAP. Questo meccanismo significava che un pacchetto originario di una qualsiasi rete regionale NSF poteva scegliere quale collegamento utilizzare per spostarsi dal proprio NAP a quello di destinazione. Di conseguenza le aziende che fornivano i servizi di collegamento erano forzate a competere per entrare in affari con le reti regionali sulla base della qualità dei propri servizi offerti e dei propri prezzi.
Anche altri NAP governativi, fix-e e Fix-w per esempio e NAP commerciali (i CIX, Commercial internet Exchange) sono stati creati, così il concetto di un’unica dorsale venne rimpiazzato da infrastrutture in competizione secondo leggi di mercato. Anche altre nazioni e regioni hanno costruito reti simili (EBONE in Europa è una dorsale IP, EuropaNet è una rete per scopi commerciali) e ogni nazione europea ha una o più reti nazionali, paragonabili alle reti regionali NSF[1].
[1] Reti di computer, Tanembaum

Prima parte del TERZO paragrafo

Da ARPANET a Internet
Il primo protocollo[1] sviluppato per la commutazione di pacchetto su ARPANET si chiamava NCP (Network Control Protocol), ma non era particolarmente efficiente. Col passare del tempo i progettisti di ARPANET definirono un insieme di circa 100 protocolli per regolare il trasferimento dei pacchetti e questo insieme si è evoluto in quella che noi oggi conosciamo con il nome di Internet Protocol Suite: una raccolta di standard trasmissivi che verte su due protocolli primari, il Transmission Control Protocol (TCP) e l'Internet Protocol (IP), più molti altri secondari che consentono la comunicazione tra computer e reti molto diverse.
La prima definizione di tali protocolli risale al 1973 e nel 1974 Vincent Cerf e Robert Kahn ne stilarono le caratteristiche su un documento intitolato IEEE Transactions on Communications (l'Institute of Electrical and Electronics Engineers è l'associazione di categoria che riunisce tutti gli ingegneri americani). Quello stesso anno fu pubblicata la prima specifica per i protocolli da utilizzare su Internet.
Tornando un attimo indietro nel tempo, nel 1972 l'Università dello Utah realizzò un sistema per controllare un computer a distanza su ARPANET e divenne possibile trasferire file da un computer all'altro per mezzo del protocollo FTP (File Transfer Protocol): l’FTP fu la prima applicazione che consentì a due macchine di cooperare alla pari invece di trattare una come terminale dell’altra. Combinando TCP/IP ed FTP si era giunti al coronamento dell'obiettivo tecnologico di ARPANET: trasferire dati da un punto all'altro della rete. Quel che ancora rimaneva da dimostrare era se i dati sarebbero potuti fluire tra due macchine di tipo anche diverso, utilizzando i tipi più disparati di collegamento (incluso l'etere). L'esperimento chiave in questo senso fu condotto nel 1978: un computer che viaggiava a bordo di un camion su un'autostrada californiana inviò dati a un altro computer che si trovava a Londra. Il camion era collegato via radio con un terzo computer in California, il quale inoltrava le informazioni sulla rete, queste attraversavano l'intero continente nordamericano su linee terrestri e infine superavano l'Atlantico per mezzo di una connessione satellitare.
Già nel 1980 ARPANET si trasformò in uno strumento vitale per le università e per i centri di ricerca americani, che avevano un bisogno sempre maggiore di scambiare informazioni e di coordinare le proprie attività. Nacque così la posta elettronica che si affiancava al semplice trasferimento di file, che aveva costituito la prima applicazione di ARPANET.
Il primo gennaio 1983 Internet divenne a tutti gli effetti la rete delle reti, utilizzando ARPANET come dorsale (rete ad alta velocità che unisce tra loro altre reti locali).
Tuttavia restavano ancora esclusi tutti quegli atenei che non avevano rapporti con il Dipartimento della Difesa. Al fine di risolvere questo problema e di estendere l'accesso a tutti gli interessati, il Dipartimento della Difesa creò una propria rete alternativa, detta MILNET, così da non dover più dipendere esso stesso da ARPANET e da lasciare campo libero al mondo accademico[2].
Nel frattempo, la NFS (National Science Foundation), un ente governativo creato per finanziare lo sviluppo della ricerca americana, vide l’enorme impatto che ARPANET stava avendo sulla ricerca universitaria, permettendo agli scienziati di vari paesi di condividere dati e collaborare a progetti di ricerca. Tuttavia, per far parte di ARPANET, un’università doveva avere un contratto di ricerca con il Dipartimento della difesa, cosa che in molte non avevano. Questa mancanza di accesso universale spinse l’NFS ad installare una rete virtuale, CSNET, centralizzata su una singola macchina presso il BBN che supportava linee a cui collegarsi per connettersi ad ARPANET e ad altre reti.
Utilizzando CSNET, i ricercatori accademici potevano effettuare una chiamata e lasciare messaggi di posta elettronica per altre persone che si sarebbero collegate in seguito: il meccanismo era semplice quanto funzionale.
[1] In informatica lo scambio di informazioni tra due entità è una delle funzioni più importanti; da qui la necessità di fissare regole comuni su come devono essere organizzate le informazioni da passare. Tutte queste regole sono definite mediante specifici protocolli, dalle tipologie più varie, a seconda delle entità interessate e il mezzo di comunicazione. Un elenco completo dei protocolli esistenti esula da questa pagina introduttiva. Determinati protocolli, di rilevanza strategica internazione, sono gestiti da organismi quali il World Wide Web Consortium (abbreviato W3C), oltre che da organismi internazionali per gli standard, quali ISO/OSI.
[2] http://www.dia.uniroma3.it/~necci/storia_internet.htm

Tutto il secondo paragrafo

Storia di internet: ARPANET
Le origini di Internet si trovano in ARPANET, una rete di computer costituita nel settembre del 1969 negli USA da ARPA, l'Advanced Research Projects Agency. ARPA fu creata nel 1958 dal Dipartimento della Difesa degli Stati Uniti per dare modo di ampliare e sviluppare la ricerca, soprattutto all'indomani del superamento tecnologico dell'Unione Sovietica, che lanciò il primo satellite (Sputnik) nel 1957, conquistando i cieli americani: quando la NASA le subentrò nella gestione dei programmi spaziali l'ARPA assunse il controllo di tutte le ricerche scientifiche a lungo termine in campo militare.
Verso il 1965 l'ARPA iniziò ad avere dei seri problemi di gestione: aveva diversi computer sparsi in varie sedi (tutti molto costosi) che non potevano parlarsi, nemmeno se fossero stati nella stessa stanza. Scambiare files fra loro era quasi impossibile, per via dei formati di archiviazione completamente diversi che ognuno di essi usava, quindi era necessario molto tempo e molto lavoro per passare dati fra i vari computer, per non parlare dello sforzo necessario per portare e adattare i programmi da un computer all'altro. Per questo Bob Taylor, allora direttore della divisione informatica dell'ARPA, affrontò il problema in modo radicale. Nel 1966 parlò con Charlie Hertzfeld, l'allora direttore dell'ARPA, e ottenne uno stanziamento di un milione di dollari per il progetto ARPANET.
ARPANET venne pianificato e realizzato dall'IPTO (Information Processing Techniques Office). Questo dipartimento fu gestito in principio da Joseph Licklider, psicologo prima, scienziato informatico poi, al MIT (Massachusetts Institute of Technology) di Boston. ARPANET sarebbe servita a condividere online il tempo di utilizzazione del computer tra i diversi centri di elaborazione dati e i gruppi di ricerca per l'agenzia. L'IPTO si basò su una tecnologia rivoluzionaria: la commutazione di pacchetto (packet switching[1]), sviluppata da Paul Baran alla RAND corporation e da Donald Davies al British National Physical Laboratori (BNPL)[2].
Si puntava allo sviluppo di un network che potesse reggere ad un eventuale bombardamento nucleare, garantendo la continuità di comunicazione tra località diverse. Dovendo avere applicazioni militari, uno dei requisiti che tale rete doveva soddisfare era la resistenza ad attacchi che ne modificassero la configurazione. Sue caratteristiche dovevano quindi essere una struttura reticolare, magliata, non gerarchica e con un’elevata capacità di interconnessione e di interlavoro fra una grande varietà di nodi di rete. Per lo stesso motivo si scelse di adottare una modalità di trasferimento senza connessione e senza garanzie di qualità del servizio, rimandando queste ultime ai livelli superiori dell’architettura protocollare[3].
Così, nell'ottobre 1969, ARPANET viene formalmente commissionata dal DoD, Departement of Defense, che inizia le consultazioni per l’individuazione dei primi nodi della rete. Il primo viene realizzato al Network Measurements Centre della UCLA (Università della California di Los Angeles), struttura guidata da Leonard Kleinrock. Il progetto di ricerca “Augmentation of Human Intellect” che include uno dei primissimi sistemi ipertestuali di Douglas Engelbart, condotto sin dai primi anni sessanta in un nuovo centro di Menlo Park, in California, presso lo SRI, Stanford Research Institute, è la circostanza che determina la scelta del sito relativo al secondo nodo. L' Università della California di Los Angeles e lo Stanford Research Institute, furono così i primi due nodi di Internet.
Nel dicembre 1969 si aggiunsero alla connessione l'UCSB (University of California at Santa Barbara) e l’Uniniversità dello Utah, rispettivamente il terzo e quarto nodo. Il quinto nodo fu la BBN Corporation (Bolt, Beranek e Newman, una società di ingegneristica acustica di Boston convertita all'informatica applicata), nei primi mesi del 1970, che aveva implementato i primissimi protocolli di ARPANET[4].
Tutte queste istituzioni possedevano calcolatori (hosts) completamente incompatibili, forse per rendere il gioco ancora più avvincente e inoltre usavano linee telefoniche implementate con un IMP (Interface Message Processor), vale a dire un minicalcolatore collegato a delle linee di trasmissione. Per avere alta affidabilità, ogni IMP sarebbe stato connesso ad almeno altri due IMP, così che se alcune linee o IMP fossero stati distrutti, i messaggi avrebbero potuto passare su cammini alternativi[5].
Nell'estate del 1970 vennero collegati il sesto, settimo, l'ottavo e il nono nodo: rispettivamente il MIT, la Rand Corporation, la System Development Corporation e Harvard. Alla fine del 1971 Internet era composta di 15 nodi, e alla fine del 1972 aveva 37 nodi: fin da allora la sua crescita avveniva a velocità esponenziale. La rete nata da questo progetto è stata il primo esempio di rete geografica a commutazione di pacchetto[6].
[1] In una rete a commutazione di pacchetto (PBN, Packet Based Network) l'informazione da trasmettere viene suddivisa in pacchetti di dimensione abbastanza piccola; ad ognuno di essi viene aggiunta un'intestazione che contiene tutta l'informazione necessaria affinché il pacchetto possa venire inoltrato alla sua destinazione finale e sulla sua posizione all'interno dell'informazione che viene trasferita. I pacchetti vengono inviati individualmente attraverso la rete e vengono poi riassemblati nella loro forma originale quando arrivano sul computer di destinazione. L'intera capacità trasmissiva disponibile viene impegnata per la trasmissione di ciascun pacchetto. Se vi sono più pacchetti da trasmettere contemporaneamente, questi vengono memorizzati in una coda, subendo un ritardo di accodamento e rischiando di essere scartati in caso di esaurimento della memoria disponibile per la coda. Quando un nodo intermedio detto commutatore di pacchetto, generalmente un router o uno switch, riceve un pacchetto, esso decide quale è il percorso migliore che il pacchetto può prendere per raggiungere la sua destinazione. Questa strada può cambiare da pacchetto a pacchetto dipendentemente dalle condizioni della rete, per cui pacchetti appartenenti ad uno stesso messaggio possono intraprendere anche percorsi distinti.
[2] La vera storia di Internet, Carlo Gubitosa, e-book, http://www.apogeonline.com/libri/88-503-1055-2/scheda
[3] Melazzi Nicola, Intenet
[4] Di Nardo Nicola, internet
[5] Reti di computer, Tanembaum
[6] La vera storia di Internet, Carlo Gubitosa, e-book, http://www.apogeonline.com/libri/88-503-1055-2/scheda

Cos'è la WikiTesi

Salve a tutti i surfisti di Internet! Ho partorito questo blog stamattina, ispirato dal libro di Y.Benkler "La ricchezza della Rete". Ho deciso di fare questo blog x la mia tesi, per avere più informazioni possibili, x rendere migliore possibile: mi devo laureare in marzo 2008 in economia del Commercio Internazionale, laurea specialistica. Quindi posterò spesso paragrafo x paragrafo, anche in forma grezza, tutta la mia tesi, in modo che chi vorrà contribuire con dei consigli, con aiuti di ogni tipo, potrà farlo tranquillamente. Sarà quindi come un campo di battaglia, almeno me lo auguro. Per me è anche una specie di sfida, e capire fin dove la comunità web può arrivare.
Ma bando alle ciance e cominciamo a fare sul serio; il titolo della mia tesi nn esiste ancora, ma pressapoco dovrebbe suonare così: "Google: mercato e concorrenti". Traccio un piccolo modello della tesi:
Capitolo 1: il contesto in generale (concetto di rete, storia di internet, storia dei motori di ricerca, economia digitale)
Capitolo 2: storia di Google (quindi storia e analisi economica, tipo il bilancio, quotazioni in borsa, modello di business ecc...ecc...)
Capitolo 3: analisi strategica dei concorrenti e dei player di Google (confronto di Google con altri motori di ricerca e confronto dei servizi offerti da Google in confronto di altri realtà nel web, nn solo motori di ricerca)
Gli ultimi due capitoli, nn sono ancora stati sviluppati, mentre il primo è in via di realizzazione.

mercoledì 24 ottobre 2007

Juan sin tierra

Ecco dunque il primo paragrafetto da analizzare. Parto dalla definizione di Rete, xkè ritengo che internet sia una rete. E google fa parte di questa immensa rete.
Per rispondere a eventuali dubbi, la mia tesi vuole solo descrivere il mondo Google: ho alcuni libri di riferimento che il prima possibile metterò online. Cmq il mio è solo un tentativo di miglioramento della mia tesi: nn pretendo che nessuno me la scriva, o che mi faccia paragrafi o interi capitoli. Probabilmente nn scriverò nulla sulla mia tesi di questo blog, nn è il fine della mia tesi. Il fine della tesi arrangiarmi a farle, e pubblicare quando ho finito i vari paragrafetti, così da poterne discutere sul contunuto o sulla forma con chi vuole. Se le critiche ricevute vanno a buon fine, potrò modificare la tesi, ma la sotanza resta: i paragrafetti me li faccio da solo. Potrò, ancora, ricevere consigli su che libri leggere. Questo è quello che ho in mente. Sinceramente.
Diego

seconda parte del primo paragrafo

Le reti del mondo reale tendono ad avere una caratteristica comune a differenza del carattere statico delle reti casuali: la crescita. Si comincia da un piccolo nucleo e, uno dopo l’altro, si aggiungono nuovi nodi. In questo senso, si potranno identificare dei vincitori e dei vinti: poiché in ogni istante i nodi hanno tutti la stessa probabilità di essere linkati, i nodi più vecchi si troveranno in netto vantaggio. L’anzianità di servizio tuttavia non è ancora sufficiente a spiegare le leggi di potenza: bisogna considerare anche il preferential attachment, per cui chi ha più link ha una probabilità maggiore di averne di nuovi. Un produttore di Hollywood, che ha il compito di far incassare i film al botteghino, sa bene che a far vendere sono le star. Quindi gli attori, più hanno girato film e più sono conosciuto e adorati dal pubblico, e più finiranno nel cast di produttori esigenti. Più sono conosciuti e più vengono scelti. Si tende a preferire gli hub. Il collegamento preferenziale induce quindi ad un fenomeno del tipo “i ricchi diventano sempre più ricchi”.
Riassumendo, il mondo delle reti è governato da due leggi:
1. crescita: in ogni dato intervallo di tempo aggiungiamo un nuovo nodo alla rete. Questa fase evidenzia il fatto che le reti si formano un nodo alla volta.
2. Collegamento preferenziale: assumiamo che ogni nuovo nodo abbia due link per connettersi ai nodi già presenti. La probabilità che scelga un certo nodo è proporzionale al numero di link da questi posseduto. Ossia: data la scelta fra due nodi, di cui il primo ha due volte i link del secondo, le probabilità che la scelta ricada sul primo sono esattamente doppie.

Sorge però un problema. Alcuni nodi, pur comparendo molto tardi, si aggiudicano in breve tempo la maggior parte dei link della rete; altri, pur arrivando molto presto, non se ne aggiudicano nessuno e non riescono quindi a trasformarsi in hub: i nodi non sono tutti uguali.
Ci sono persone che sanno trasformare ogni incontro casuale in un rapporto sociale duraturo e aziende che riescono a trasformare ogni cliente in un partner fedele. Ognuno di loro ha un talento innato, che lo pone davanti a tutti gli altri. Benché sia impossibile trovare la chiave universale del successo, possiamo studiare il processo che separa i vinti dai vincitori: la competizione nei sistemi complessi.
In un ambiente competitivo ogni nodo ha una certa fitness. La fitness è la nostra attitudine a stringere più amicizie rispetto ai nostri vicini; è l’abilità di un’azienda di attirare e mantenere più clienti rispetto ad altre aziende; è la bravura di un attore che si fa apprezzare e ricordare più di altri.
Nel modello a invarianza di scala abbiamo assunto che la capacità di attrazione di un nodo era determinata esclusivamente dal suo numero di link. In un ambiente competitivo anche la fitness ha un ruol: i nodi con una fitness più elevata vengono linkati più frequentemente. Un modo semplice per far rientrare la fitness nel modello a invarianza di scala è assumere che il collegamento preferenziale sia guidato dal prodotto tra la fitness del nodo e il suo numero di link. Ogni nuovo nodo decide dove connettersi confrontando il prodotto tra fitness e connettività di ogni nodo disponibile, preferendo quello con un prodotto più alto e, quindi, con una più alta capacità di attrazione. Fra due nodi con lo stesso numero di link quello con una fitness più alta acquisirà nuovi link più velocemente dell’altro. Se due nodi hanno la stessa fitness, tuttavia, il favorito rimane comunque il più vecchio[1].
Questo semplice modello a fitness, in grado di combinare la competizione e la crescita, fu il primo tentativo dell’equipe di Barabasi di spiegare il fenomeno Google, il motore di ricerca del nuovo secolo. Google si può interpretare con il modello di rete sopra descritto e fa parte della più grande rete conosciuta oggi: il World Wide Web. Ma vediamo ora passo per passo, la storia di internet e del www, prima di approfondire la storia di Google.
[1] Barabasi, link

Ecco la prima parte del primo paragrafetto

Concetto di rete
In natura la maggior parte delle grandezze segue una curva a campana, ossia un andamento simile alla distribuzione a picco che caratterizza le reti casuali. Se si misura la statura dei maschi adulti di una nazione, per esempio, e se si riporta su un istogramma quelli altri un metro e trenta, uno e quaranta e così via, si troverà che nel campione moltissimi si troveranno fra il metro e sessanta e il metro e ottanta. L’istogramma infatti registrerà un picco intorno a questi valori.
Negli ultimi anni gli scienziati si sono accorti che, occasionalmente, la natura genera grandezze che, anziché una curva a campana, seguono una distribuzione regolata da una legge di potenza, o legge di scala. Le leggi di potenza descrivono la statura degli individui in modo radicalmente diverso dalle curve a campana. Anzitutto una legge di potenza non ha un picco. Un istogramma che segue una legge di potenza si presenta piuttosto come una curva decrescente con continuità, a indicazione del fatto che molti piccoli eventi coesistono con pochi grandi eventi. Il tratto peculiare di una legge simile, quindi, non è soltanto la presenza di molti piccoli eventi, ma la loro coesistenza con eventi molto grandi. Eventi straordinari che, in una curva a campana, risultano semplicemente esclusi. Poiché nelle reti la legge di potenza descrive il grado di distribuzione, l’esponente è spesso chiamato esponente di grado.
Le notevoli differenze fra una rete casuale e una rete descritta da una legge di potenza si chiariscono mettendo a confronto una mappa delle linee aeree degli Stati Uniti con una cartina stradale, dove le città sono i nodi e le strade (e i percorsi) sono i link. La cartina si presenta come una rete abbastanza uniforme: ogni grande città ha almeno un collegamento con il sistema autostradale e non esistono città servite da centinaia di strade. I nodi tendono dunque a somigliarsi: tutti ‘ all’incirca, hanno lo stesso numero di link. La mappa aerea è radicalmente diversa. I nodi sono gli aeroporti e i link i voli diretti che collegano gli aeroporti. Ci sono alcuni hub, come per esempio gli aeroporti di Chicago, Dallas, Atlanta, Denver o New York, dai quali partono voli per quasi tutti gli aeroporti statunitensi. Gli aeroporti sono in stragrande maggioranza nodi piccoli, con pochi link che li connettono a uno o più hub.
Una disparità analoga caratterizza le reti con grado di distribuzione regolato da una legge di potenza. Queste leggi esprimono in termini matematici il fato che nelle reti del mondo reale la maggioranza dei nodi ha solo pochi link, e questi innumerevoli piccoli nodi coesistono con pochi grandi hub, dotati invece di un numero eccezionalmente alto di link. I pochi link che connettono fra di loro i nodi più piccoli non sono sufficienti a garantire la piena interconnessione della rete. Questa funzione è assicurata dalla sporadica presenza di hub, che impediscono alla rete di frammentarsi. La distribuzione regolata da una legge di potenza ci obbliga quindi ad abbandonare l’idea di una scala o un nodo caratteristici. Gran parte delle reti complesse ha un grado di distribuzione regolato da una legge di potenza, che vengono definite reti a invarianza di scala.