martedì 28 giugno 2016

Lead Generation



Nel mese di Giugno del 2016 Mariano Mangano, della 2M Servizi Business Partner di Fastweb, ha partecipato a Roma al Corso di Lead Generation organizzato da Fastweb nel quadro del piano di formazione professionale dedicata e continua che i dipendenti e collaboratori dell’azienda seguono periodicamente.

La Lead Generation è un'azione di marketing che consente di generare una lista di possibili clienti interessati ai prodotti o servizi offerti da un'azienda. Questa operazione consiste nel trovare i clienti interessati, farsi dare i contatti dalla persona (prospect) e costruire un database che sarà utilizzato dal reparto commerciale.

Per generare nuovi contatti, di futuri clienti, possono essere utilizzate tutte le varie strategie di marketing, da quelle più tradizionali come pubblicità o telemarketing alle più innovative come direct marketing o altre strategie che utilizzano il Web.

Il pregio della Lead Generation è di generare una lista di possibili clienti realmente interessata e quindi con forte propensione all'acquisto del prodotto o servizio offerto, perché avviene una “selezione” a monte. Questo significa che il messaggio di vendita viene effettivamente veicolato soltanto ad alcuni consumatori, profilati grazie agli strumenti di marketing strategico.

Il metro di giudizio di una buona campagna di Lead Generation si ferma al numero di prospect generati e alla loro qualità. Non viene valutata quindi l'acquisizione effettiva dei clienti, cioè la quantità di vendite realizzate, perché tale dato è fortemente determinato dalle capacità di chi si occupa dell'ambito commerciale, il quale ha il compito di proporre l'offerta e chiudere la vendita.

martedì 21 giugno 2016

FIDO 2.0 password addio



Un anno di lavoro per cambiare il web per come lo conosciamo e lo abbiamo conosciuto negli anni passati. Questo l'obiettivo che si pone il Web Authentication Working Group, gruppo di lavoro creato dal World Wide Web Consortium a inizio 2016 per incrementare il livello di sicurezza di applicativi, servizi e portali web. Uno scopo da raggiungere favorendo l'utilizzo dell'autenticazione in due passaggi e di dispositivi hardware (come chiavette crittografiche, ad esempio) al posto delle "solite" password.

Il gruppo di lavoro, diretto da Richard Barnes di Mozilla e Anthony Nadalin di Microsoft si occuperà di sviluppare una suite di API da integrare nei web browser (non solo Firefox o Edge, ma anche Safari, Opera e Chrome solo per citare i più importanti) per rivoluzionare il modo in cui siamo soliti effettuare il login. Il working group si occuperà di determinare quali siano i casi nei quali le API devono entrare in gioco e, partendo da queste situazioni-tipo, derivare i requisiti software da sviluppare in un secondo momento. In particolare, chi si troverà a definire lo standard dovrà pensare e realizzare anche un sistema crittografico asimmetrico capace di proteggere le informazioni personali inviate in fase di login.

Bisogna dire che il lavoro degli ingegneri del W3C non partirà da zero. Il gruppo di lavoro Web Authentication potrà contare sulle specifiche del progetto FIDO 2.0, presentato nel 2015 da un'equipe di ricercatori di sicurezza web alle dipendenze Google, Microsoft e PayPal. In particolare, il progetto FIDO fa affidamento su un sistema di verifica dell'identità dell'utente basato sullo smartphone: sfruttando una suite di API, una volta caricata la pagina di login l'utente dovrà compiere un'azione con il proprio telefonino (il funzionamento è, a grandi linee, lo stesso utilizzato dalle app per l'autenticazione in due passaggi). In questo modo sarà possibile eliminare la password e autenticarsi, ogni volta, compiendo un'azione univoca.

Ovviamente, il sistema proposto da Google, Microsoft e PayPal (a vario titolo interessati ai temi della sicurezza informatica e della protezione dei dati personali degli utenti) prevede anche dispositivi di sicurezza tesi a evitare furti di identità online. Nel caso in cui si smarrisse lo smartphone solitamente utilizzato per l'autenticazione, l'utente dovrà inviare una segnalazione ai server FIDO, che provvederanno a eliminare la sincronizzazione tra telefono e account. Solo nel momento in cui l'utente invierà richiesta di nuova sincronizzazione da un altro dispositivo potrà tornare a loggarsi utilizzando il sistema senza password ideato da Microsoft, Google e PayPal.

Come detto, il lavoro del team del W3C ha preso il via a inizio 2016 (febbraio 2016, per l'esattezza) e durerà un anno circa. La prima proposta di protocollo standard è attesa tra il dicembre 2016 e gennaio 2017, ma si tratta solo del primo passaggio formale verso l'approvazione definitiva. Il processo di definizione degli standard del World Wide Web Consortium si compone di quattro step e solitamente richiede alcuni anni prima di essere completato. Insomma, saremo "costretti" a utilizzare password per accedere ai nostri profili web ancora per qualche tempo.

Fonte: Fastweb

martedì 14 giugno 2016

Computer Biologico



Nella corsa alle alternative al silicio per realizzare le CPU e i chip elettronici si inserisce un nuovo protagonista che potrebbe rivoluzionare l'intero settore. Dan Nicolau, ricercatore dell'università statunitense McGill, ha realizzato un prototipo di computer biologico capace di sfruttare il movimento delle proteine anziché gli elettroni per trasportare le informazioni ed effettuare i calcoli delle operazioni booleane che sono alla base del funzionamento dei processori.

Il prototipo realizzato nei laboratori di ricerca della facoltà di bioingegneria, una scheda di materiale plastico grande appena 1,5 centimetri, ha stupito molti degli esperti del settore. La capacità di calcolo del processore biologico, infatti, è equiparabile a quella di molti supercomputer utilizzati oggi nella ricerca scientifica e per processare grandi moli di dati.

Alla base del funzionamento del super computer biologico realizzato nei laboratori della McGill University troviamo l'ATP (acronimo di adenosina trifosfato), molecola zuccherina che funge da fonte energetica per le cellule di tutti gli organismi viventi. Nel caso del computer biologico, invece, l'adenosina è necessaria per muovere le proteine all'interno dei circuiti del processore. La scheda del supercomputer sperimentale è infatti composta da una miriade di piccoli canali e cunicoli che sostituiscono i transistor tipici dei chip in silicio.

E sono proprio i piccoli canali che solcano per intero la superficie a rendere unico nel suo genere il supe rcomputer sviluppato da Dan Nicolau. Al loro interno, come accennato, si muovono le catene di proteine alimentate dall'adenosina trifosfato che permettono al computer di elaborare grandi quantità di dati. Stando ai primi test in laboratorio, il computer biologico dovrebbe garantire un risparmio energetico non indifferente.

Rispetto ai circuiti elettrici dei transistor tradizionali, infatti, quelli biologici traggono dalle reazioni chimiche l'energia di cui hanno bisogno per funzionare. Questo consente di abbattere a livelli minimi la produzione di calore dovuta al funzionamento del chip (molto elevata, invece, nei dispositivi elettronici a causa dell'effetto Joule) tanto da rendere superflui i sistemi di raffreddamento utilizzati di norma dai processori tradizionali (particolarmente esosi dal punto di vista dei consumi energetici)

Il bio computer realizzato dal ricercatore statunitense è uno dei primi modelli di calcolatore informatico capace di rispondere ai principi di un settore scientifico piuttosto recente: la bioinformatica o natural computing. Questa disciplina, in forte crescita, studia le cosiddette macchine viventi, ovvero delle macchine informatiche che funzionano sfruttando i principi della biologia.

Fonte: Fastweb

martedì 7 giugno 2016

Modem e router



Può capitare, e accade più spesso di quanto si possa immaginare, di confondere quelle che sono le loro rispettive funzioni e ruoli. Modem e router, però, sono due dispositivi di rete completamente differenti l'uno dall'altro: uno consente la connessione alla Rete e la navigazione nel web, l'altro può essere utilizzato per realizzare reti informatiche di dimensioni differenti (dalle LAN casalinghe alle reti aziendali di piccole e medie dimensioni).

Nell'ambito delle telecomunicazioni il modem è un apparato di rete deputato alla ricetrasmissione di informazioni sfruttando la linea telefonica analogica. Operante a livello intermedio tra operatore telefonico e utente, è un dispositivo necessario al funzionamento della Rete: permette agli internauti di entrare in contatto tra loro indipendentemente da dove si trovano, standardizzando metodi e mezzi di comunicazione.

Modem, infatti, è un acronimo che sta per Modulatore e Demodulatore del segnale che trasporta le informazioni e che viaggia attraverso i cavi telefonici (siano essi i doppini in rame o cavi in fibra ottica). Il compito del modem è, a grandi linee, quello del traduttore simultaneo: da un lato traduce i segnali elettromagnetici in arrivo dalla linea telefonica in dati digitali comprensibili al computer (o al dispositivo informatico cui è collegato); dall'altro interpreta i dati digitali in uscita dal computer e li tramuta in pacchetti dati pronti per viaggiare lungo la linea telefonica. In questo modo, dunque, rende possibile lo scambio di dati tra i dispositivi appartenenti alla stessa rete informatica.

Spesso, abbinato insieme al modem in un unico apparato di rete (in tal caso detto "modem-router"), il router (instradatore, in italiano) è un dispositivo che può essere utilizzato indipendentemente dall'esistenza di una connessione a Internet. Solitamente dotato sia di porte Ethernet sia di connettività Wi-Fi, e permette la condivisione della stessa connessione a più computer o dispositivi informatici (ad esempio smartphone, tablet, smartwatch e altri device indossabili). Un router è dunque in grado di gestire tutti quei protocolli necessari alla creazione di una rete informatica, garantendo che tutti i dispositivi ivi connessi comunichino efficacemente tra loro, facendo quindi in modo che i pacchetti dati giungano nel giusto ordine al giusto destinatario.

Se il modem è il traduttore simultaneo, il router può essere paragonato a un vigile o a un dipendente delle poste addetto allo smistamento di missive e pacchi. Il router opera al terzo livello del modello ISO/OSI e si occupa della gestione dei pacchetti dati in arrivo o in uscita da uno o più nodi di una rete informatica (sia locale come una LAN, sia estesa geograficamente come Internet). Al suo interno, inoltre, sono archiviate le routing table o tabelle di indirizzamento, che permettono ai pacchetti in transito di conoscere la topografia della rete scegliere così il percorso più breve per raggiungere la destinazione a loro assegnata. I router, tra l'altro, permettono di mettere in contatto e comunicazione anche due o più sottoreti, garantendo l'interoperabilità del sistema a livello di indirizzamento dei pacchetti dati.

Una volta compreso a cosa servono modem e router, comprendere quali siano le differenze tra i due apparati di rete è quasi elementare. Prima di tutto, se si ha la necessità di connettersi a Internet è d'obbligo acquistare un modem: senza questo dispositivo i pacchetti dati in uscita dal computer non potrebbero essere tradotti nel segnale elettromagnetico atto a viaggiare lungo le linee di telecomunicazione e, viceversa, il segnale contenente informazioni non potrebbe essere convertito in pacchetti dati comprensibili al PC (o altro device connesso).

Il router, pur essendo molto utilizzato da chiunque abbia una connessione Internet, non è fondamentale per la navigazione in Rete. Serve, piuttosto, a creare e gestire delle sottoreti, così da rendere più semplice la condivisione di dati tra i vari nodi del network locale e, all'occorrenza, permettere l'uso contemporaneo della stessa connessione Internet a più dispositivi informatici collegati alla stessa LAN.

venerdì 3 giugno 2016

Le origini dell'IoT



L'Internet delle cose è una tecnologia che "avvolge" gli oggetti di uso quotidiano - tessuti, orologi, contatori, elettrodomestici - per renderli "intelligenti", in grado cioè di prendere in relativa autonomia delle decisioni (ad esempio rifornire il frigorifero di latte non appena questo scende sotto un livello minimo di scorta) al verificarsi di determinate condizioni. 

Questo approccio si riferisce non solo allo sviluppo di tecnologie emergenti, ma anche alla possibilità di trovare modi innovativi per utilizzare i dati raccolti dagli oggetti interconnessi. Tutto ciò ha un impatto evidente sulle industrie e i settori tradizionali, ma anche sulla vita quotidiana delle persone.

La stima del numero esatto di oggetti connessi a Internet è stata fatta da diversi analisti negli ultimi mesi. I risultati sono, però, molto diversi tra loro. Il gigante della ricerca Gartner suggerisce che entro il 2020 ci saranno 20,8 miliardi di dispositivi collegati, mentre Cisco e Frost&Sullivan concordano sul fatto che il numero si avvicinerà più ai 50 miliardi di unità.

Anche il potenziale giro d'affari legato all'IoT è oggetto di un vivace dibattito. Business Insider prevede che la spesa dirottata sulle tecnologie e il software a supporto dell'Internet of Things raggiungerà i 6 trilioni (milioni di miliardi) di dollari nei prossimi cinque anni. 

Cisco ritiene che le tecnologie e i servizi associati creeranno un turnover di 14,4 trilioni di dollari per le imprese entro il 2022. Secondo Business Insider, invece, si parla di un ben più modesto giro d'affari di 600 miliardi di dollari entro il 2019, mentre IDC ritiene che le entrate supereranno i 7 miliardi di dollari entro il 2020.

Una stima corretta dell'impatto economico dell'Internet delle cose sembra, quindi, difficile da fare. Quel che è chiaro a tutti è che si tratta di una rivoluzione ormai avviata, che avrà una portata enorme sulla nostra vita quotidiana. Dai frigoriferi agli impianti d'irrigazione, dalla videosorveglianza all'eHealth, dal monitoraggio industriale a quello energetico, non c'è campo che sia escludibile a priori dalla rivoluzione del web degli oggetti.

Cloud, connettività diffusa e miniaturizzazione dei componenti informatici permettono di sperimentare i benefici dell'Internet of Things finalmente in modo economico. Il risultato è una miriade di dati che alimenta con continuità i sistemi analitici aziendali, garantendo all'organizzazione una miniera d'informazioni preziose. 

Si parlerà di CED "satellite", di co-location, housing, outsourcing, virtual private datacenter e continuità operativa. Ma anche di cloud e managed services. Perché il ricorso a provider esterni, secondo gli analisti, subirà un'impennata nei prossimi mesi e si rivelerà in molti casi la soluzione più efficace ed economica per assicurare alle aziende la flessibilità di risorse necessaria per supportare i carichi di lavoro "estremi" che l'IoT impone.