Tecnologia – Semi di Scienza https://www.semidiscienza.it Wed, 13 Mar 2024 12:37:52 +0000 it-IT hourly 1 https://wordpress.org/?v=5.8.10 https://www.semidiscienza.it/wp-content/uploads/2019/01/cropped-Semi-di-scienza-1-32x32.png Tecnologia – Semi di Scienza https://www.semidiscienza.it 32 32 Meme di Scienza https://www.semidiscienza.it/2023/03/15/meme-di-scienza/?utm_source=rss&utm_medium=rss&utm_campaign=meme-di-scienza https://www.semidiscienza.it/2023/03/15/meme-di-scienza/#respond Wed, 15 Mar 2023 10:10:15 +0000 https://www.semidiscienza.it/?p=2329

Il concorso è finalizzato a coinvolgere i giovani nella creazione di contenuti digitali a tema scientifico che riescano a suscitare interesse in modo ironico e divertente.

Scarica il bando completo per tutti i dettagli!

Per maggiori informazioni: info@semidiscienza.it

Scarica il bando

]]>
https://www.semidiscienza.it/2023/03/15/meme-di-scienza/feed/ 0
Il tecnofideismo e il pianeta nuovo. Una non-recensione al libro di Oliver Morton « Il pianeta nuovo » https://www.semidiscienza.it/2023/02/03/il-tecnofideismo-e-il-pianeta-nuovo-una-non-recensione-al-libro-di-oliver-morton-il-pianeta-nuovo/?utm_source=rss&utm_medium=rss&utm_campaign=il-tecnofideismo-e-il-pianeta-nuovo-una-non-recensione-al-libro-di-oliver-morton-il-pianeta-nuovo https://www.semidiscienza.it/2023/02/03/il-tecnofideismo-e-il-pianeta-nuovo-una-non-recensione-al-libro-di-oliver-morton-il-pianeta-nuovo/#respond Fri, 03 Feb 2023 08:57:03 +0000 https://www.semidiscienza.it/?p=2235 Di Luciano Celi

La prima stesura di questo documento era avvenuta dopo la lettura un po’ spazientita e con qualche pregiudizio del libro di Oliver Morton, Il pianeta nuovo (il Saggiatore). Avevo deciso per una non-recensione fatta limitandomi alle prime 60 pagine, poi ho pensato che sarei stato ingiusto. La domanda è: si può immaginare di recensire un libro dopo averne letto solo meno di un quinto o, per necessaria correttezza, fondamentale scrupolo anche logico – noto come fallacia induttiva della generalizzazione indebita: “un uomo ha rubato una mela. Quindi tutti gli uomini sono ladri” – e di rettitudine morale, non lo si deve fare fino alla lettura dell’ultima pagina?

In prima battuta avevo deciso di rispondere di sì a questa domanda, ma mi sono dato il tempo di leggere il libro per intero e ho fatto bene – quasi sempre si fa bene a non dare retta all’impulso del primo momento. Ho fatto bene perché Morton è innanzitutto una persona di grande onestà intellettuale, con idee diverse da quelle che posso avere io su molti argomenti, ma non gli si può non riconoscere di porre le questioni nella maniera adeguata, soprattutto per un argomento tanto controverso come quello della geoingegneria. Perché di questo il cospicuo volume – che pure parte da lontano – parla. E ne parla avanzando, per primo l’autore stesso, una serie di critiche a questa ipotetica metodologia che consiste, in sostanza, in una serie di tecniche volte a mitigare gli effetti del riscaldamento globale usando stratagemmi quali la velatura stratosferica. Alcune delle critiche che feci in prima battuta restano valide, come l’affermazione, nelle prime pagine (p. 12 per la precisione) in cui l’autore accenna ai “molti […] dubbi sulla portata del cambiamento climatico che il pianeta affronterà nei decenni e nei secoli a venire” e descrive molto sommariamente i limiti dei modelli climatici che, in quanto tali, sono capaci di rappresentare in una certa misura e con un certo grado di affidabilità, spesso dichiarato nella previsione stessa, una situazione climatica futura.

Qui per esempio Morton sembra ignorare un diagramma, passato forse troppo sotto silenzio, in un vecchio articolo scientifico – un editoriale per essere precisi – di Bernard Etkin: A state space view of the ice ages—a new look at familiar data, sulla rivista “Climatic Change” (2010) 100:403–406 DOI: 10.1007/s10584-010-9821-x. Il diagramma di fase è di facile comprensione ed è riportato qui di seguito.

In ascissa la concentrazione atmosferica di CO2 in parti per milione e in ordinata le anomalie delle temperature. C’è, come si vede, una zona evidenziata dall’ellisse in cui le fluttuazioni si sono mosse dentro quell’area specifica che possiamo considerare una zona di equilibrio. A un certo punto però la linea esce dall’ellisse e, all’aumentare della concentrazione atmosferica di CO2, prende una strada tutta sua. Per andare dove? Chi lo sa! Possiamo e vogliamo auspicare verso una nuova zona di equilibrio, ma è troppo presto per dirlo visto che in sostanza – data la scala dei tempi – ci troviamo in media res. Varrebbe quindi da applicare ciò che passa sotto il nome di principio di precauzione ( link: https://it.wikipedia.org/wiki/Principio_di_precauzione), ovvero: siccome non sappiamo dove si sta andando a parare ed esploriamo un territorio ignoto, sarebbe il caso di ripensare l’approccio al pianeta di cui siamo ospiti e non porre le premesse per l’uso della geoingegneria. Il rischio concreto è che la toppa sia peggio del buco, con l’aggravante che… non ce lo possiamo permettere, visto che la posta in gioco è di fatto la sopravvivenza dei Sapiens sul pianeta. Morton discute anche di questo nella parte finale del libro, mettendo in chiaro i possibili benefici, ma anche i molti rischi che vanno dall’azzardo morale (la cui spiegazione è semplice: ipotizzando di riuscire a creare un velo efficace e, più in generale, ci sono i sistemi per tenere sotto controllo il termostato della terra, allora possiamo continuare a bruciare le fossili come vogliamo) alle conseguenze impreviste che tirano in ballo il principio di precauzione di cui sopra.

Un secondo esempio è dato poco dopo (p. 28) dove si incorre in una sorta di fallacia, abbastanza nota, del “tutto o niente”, ovvero: poiché l’urgenza climatica è tale da indurre un’azione molto estesa sin da subito, i contributi delle singole nazioni, anche di quelle più virtuose – vengono citate espressamente Germania e, all’interno degli Stati Uniti, la California – è insufficiente, è troppo poco. Vero, ma anche questo sembra un ragionamento privo di una sua logica – o meglio: dotato di una logica utile a sostenere la tesi geoingegneristica per la quale la scala su cui agire, lasciando il resto del mondo così com’è, vale a dire con la combustione dei combustibili fossili, ecc., è e deve essere mondiale. Esistono infatti delle sane gradazioni tra lo 0% e il 100% e sane lo sono perché mostrano che lo sforzo al virtuosismo e alla sostenibilità può e deve essere affrontato con metodi tradizionali e, aggiungiamo, con quello che dovrebbe essere un cambio di paradigma. Un paradigma che parla di diminuzione consapevole dei consumi, di standard di vita, buoni ma non eccessivi, ecc. Intanto partiamo con quel che si ha, diamo spazio ai virtuosi e facciamo in modo che il resto delle nazioni segua!

Il libro però è interessante e, sotto molti aspetti, stimolante, come quando si traccia il parallelo tra le paure di una minaccia nucleare globale e il cambiamento climatico: i modelli – e all’inizio anche i calcolatori impiegati! – racconta Morton, erano in sostanza gli stessi. Le macchine che calcolavano le reazioni nucleari erano quelle che cercavano di predire cosa avrebbe comportato lo sconsiderato aumento di CO2 in atmosfera.

Insomma, per concludere: la strada su cui stiamo secondo l’autore sembra essere l’unica percorribile e non si immagina una vera libertà di scelta per l’umanità. Una scelta che dovrebbe essere anche socialmente più sostenibile, ma che di fatto non viene mai realmente presa in considerazione, affidando solo ed esclusivamente la tecnologia il salvifico compito della vita umana sul pianeta, nonostante tutto e nonostante i rischi che l’autore stesso paventa. In tutto il libro l’autore sembra non chiedersi mai: se il frutto dell’ingiustizia energetico-climatica nella quale viviamo è proprio stato il paradigma nel quale siamo vissuti finora, non sarebbe il caso di un ripensamento generale? No, la domanda non lo sfiora mai. Anzi, la soluzione – o meglio: la Soluzione – è, ancora una volta, la tecnologia, a costo di far danni ancora peggiori, come uno degli scenari descritti alla fine, secondo cui è possibile che, non conoscendo esattamente le retroazioni della complessa macchina climatica, si esasperino – più o meno volontariamente – le ingiustizie climatiche che già esistono.

Tutto questo mi porta alla mente un esempio che tutti abbiamo oggi sotto gli occhi: le auto di nuova generazione sono tutte (o quasi) dotate di ogni sorta di gadget tecnologico, primo tra i quali quello della “sicurezza anticollisione” creato, credo, per tutti coloro che dovendo stare in auto a giornate sane, nell’abitacolo fanno di tutto tranne che guidare. Tanto c’è l’anticollisione che ci pensa, e io posso continuare a tenere gli occhi fissi sul mio telefono cellulare o sul touchscreen dell’auto. Questo il messaggio. Un messaggio che trovo pericolosamente deresponsabilizzante: abdicare al nostro ruolo consapevole e cosciente di conservazione di habitat necessari a una nostra buona vita, come animali (evoluti?) tra gli animali.

]]>
https://www.semidiscienza.it/2023/02/03/il-tecnofideismo-e-il-pianeta-nuovo-una-non-recensione-al-libro-di-oliver-morton-il-pianeta-nuovo/feed/ 0
Criptovalute e sostenibilità: un connubio possibile? https://www.semidiscienza.it/2022/10/17/criptovalute-e-sostenibilita-un-connubio-possibile/?utm_source=rss&utm_medium=rss&utm_campaign=criptovalute-e-sostenibilita-un-connubio-possibile https://www.semidiscienza.it/2022/10/17/criptovalute-e-sostenibilita-un-connubio-possibile/#respond Mon, 17 Oct 2022 20:40:42 +0000 https://www.semidiscienza.it/?p=1949 Ph. di André François McKenzie su Unsplash

Di Maila Agostini

Le criptovalute sono valute visualizzabili solo conoscendo un codice di accesso; non esistono in forma fisica, quindi non è possibile trovare in circolazione, per esempio, bitcoin in formato cartaceo o metallico. Questo tipo di “moneta” non ha corso legale quasi da nessuna parte del mondo; l’accettazione come metodo di pagamento è quindi su base volontaria. Tuttavia, qualche stato come l’Uruguay e il Venezuela hanno deciso di sperimentare l’utilizzo di valuta virtuale nei propri paesi.
Le criptovalute hanno alcune caratteristiche particolari:

  • un protocollo, cioè un codice informatico che specifica il modo in cui i partecipanti possono effettuare le transazioni;
  • un “libro mastro” (blockchain) che conserva la storia della transazioni;
  • una rete decentralizzata di partecipanti che aggiornano, conservano e consultano il libro mastro secondo le regole del protocollo.

Sono soggette a fluttuazioni molto ampie, quindi sono poco efficienti come mezzo di pagamento, in quanto risulta difficile prezzare beni e servizi. Tuttavia, visto che il numero di criptovalute che possono essere generate è limitato, potrebbero assolvere, in futuro, a una funzione di scambio.

Si tratta di monete virtuali decentralizzate, ovvero che non rientrano sotto il controllo di istituti finanziari o governi; essendo immateriali, sembrano “green”, ma sono davvero così sostenibili?
La maggior parte delle persone, pur avendo sentito parlare di criptovalute e blockchain, ha ancora difficoltà a capire come funzionano queste tecnologie. Di cosa stiamo parlando esattamente? Si tratta di una risorsa finanziaria digitale decentralizzata; proprio per questo motivo, le loro fluttuazioni in borsa sono più drastiche rispetto ai tradizionali prodotti economici. La più nota di queste monete digitali è il Bitcoin, le cui transazioni vengono registrate sulla blockchain, una specie di registro digitale in cui le voci sono concatenate in ordine cronologico, che rappresenta il “libro mastro” in cui vengono registrate le operazioni. Le monete virtuali possono essere utilizzate come forma di pagamento per acquisti online, essere scambiate con valute reali oppure essere trattate come un prodotto di investimento, quindi conservate e scambiate quando il mercato è più favorevole.
Ma una moneta virtuale non nasce dal nulla; ha bisogno di essere creata tramite una tecnica chiamata mining.


Mining Farm e alternative


Abbiamo detto che la blockchain rappresenta il libro mastro delle valute digitali; perché tutte le transazioni vengano controllate, i nodi, che rappresentano decine di migliaia di computer, si collegano per supervisionare il funzionamento della catena digitale. Devono quindi dare il via libera alla transazione, verificando che sia autentica, e vengono “pagati” per questo lavoro di controllo proprio in criptovaluta. Tuttavia, non tutti i computer che si collegano approvano la transazione, masoltanto il primo che riesce a risolvere un complicato algoritmo. Si genera quindi una “gara”, in cui migliaia di computer competono per trovare la soluzione.

Siamo al punto caldo; le critiche principali che vengono mosse a queste tecnologie sono dovute alle enormi emissioni di anidride carbonica delle mining farm. Le macchine, lavorando in competizione per la stessa transazione, si azionano simultaneamente; questo vuol dire che si consumano quantità elevatissime di elettricità che, ovviamente, produce gas serra.

Alcune valute sono più sostenibili di altre, anche solo per il minore numero di transazioni che vengono effettuate con quella moneta. Ci sono quindi più fattori da considerare: il numero di transazioni, gli algoritmi e i sistemi utilizzati. Non tutte le criptomonete utilizzano il metodo proof of work; alcune si basano su tecnologie proof of storage, che invece di riservare capacità di calcolo riserva spazio di archiviazione, oppure block lattice, un’infrastruttura simile a una catena di blocchi in cui ogni utente è proprietario della sua catena e quindi l’intera rete non viene aggiornata contemporaneamente; si può altrimenti utilizzare il sistema proof of stake, che seleziona casualmente alcuni nodi della blockchain. Questi metodi sono molto più ecologici rispetto al proof of work.

Il meccanismo proof of stake richiede meno dell’1% dell’energia utilizzata per minare Bitcoin; questo significa che è possibile aumentare il numero di transazioni gestite di quasi un ordine di grandezza. Un cambiamento radicale si avrà con il passaggio di Ethereum al sistema proof of stake. Essendo questa valuta la seconda per importanza, il numero di operazioni gestite dalla stessa potrebbe aumentare, mentre diminuiscono i consumi necessari per la gestione.
Se si trattasse soltanto di monete scambiate a fini speculativi, forse il problema non sarebbe così grande; in realtà, alcune di queste valute virtuali consentono l’utilizzo della tecnologia blockchain per diverse applicazioni. Cardano, per esempio, su richiesta del governo etiope, tiene traccia delle performance degli studenti, per evitare falsificazioni di certificati scolastici, piaga diffusa nel paese. Altre, invece, come Ethereum, consentono di autenticare le proprie opere d’arte digitali, permettendo agli artisti di avere un compenso per il loro lavoro. 


Verso la svolta green


Risulta quindi evidente che i big del settore tecnologico abbiano un grande peso nella svolta green delle criptomonete. Questo ha portato parte dell’industria legata al mining, a lavorare a un accordo sul clima, in modo da limitare il costo energetico dei nodi coinvolti nelle operazioni (basti pensare che, da solo, il Bitcoin consuma annualmente la stessa energia di Hong Kong, mentre Ethereum consuma circa quanto la Lituania). Questa operazione di auto-regolamentazione si impone due tappe principali: la prima, da raggiungere entro il 2030, vede tutte le operazioni sostenute da fonti rinnovabili; la seconda tappa, fissata per il 2040, mira a raggiungere la neutralità climatica con emissioni zero. Questo significa che si dovrà trovare anche uno standard comune per misurare le emissioni dovute alle valute digitali.


Sarà un compito arduo il coinvolgere tutti gli attori di questo mercato, proprio perché la maggior parte delle criptomonete è pensata per essere un sistema decentralizzato e senza supervisione. Inoltre, momentaneamente, non si hanno obiettivi concreti, se non i due principali, la sostenibilità e l’impatto zero, fissati per il 2030 e il 2040. Probabilmente questo è dovuto anche al fatto che si tratta di un settore innovativo, in cui si ha la necessità di trovare nuove strade. La difficile sfida per rendere green le criptovalute, guidata interamente dal settore privato, è appena all’inizio.


Sitografia:
www.cryptoclimate.org
www.theverge.com/
www.greencluster.it

]]>
https://www.semidiscienza.it/2022/10/17/criptovalute-e-sostenibilita-un-connubio-possibile/feed/ 0
Instabilità di luce: perché sono importanti https://www.semidiscienza.it/2019/12/16/instabilita-di-luce-perche-sono-importanti/?utm_source=rss&utm_medium=rss&utm_campaign=instabilita-di-luce-perche-sono-importanti https://www.semidiscienza.it/2019/12/16/instabilita-di-luce-perche-sono-importanti/#respond Mon, 16 Dec 2019 16:25:35 +0000 https://www.semidiscienza.it/?p=785 Siamo sovente abituati a considerare l’instabilità come un fatto negativo: instabilità economica, instabilità mentale, instabilità geopolitica non ci fanno certo pensare ad una situazione desiderabile. Ancor meno l’instabilità di opere d’ingegneria, come per esempio una casa, un palazzo od un ponte, del programma di un computer o che dire di quella dell’ala di un aereo? Consideriamo tali oggetti in grado di assolvere alla funzione per cui sono stati costruiti proprio in virtù della loro robustezza e della loro stabilità rispetto ad influssi indesiderati e che si possono manifestare senza il nostro controllo. Speriamo ardentemente che perturbazioni esterne agenti sull’oggetto vengano smorzate ed in qualche modo neutralizzate evitando che le sue funzionalità vengano pregiudicate o ancor peggio che il nostro ponte, la nostra casa o quant’altro vadano in frantumi. Lo stesso si potrebbe pensare di una sorgente luminosa progettata per un utilizzo ben preciso, vorremmo in genere che l’intensità della luce non fluttui significativamente nel tempo o non cambi drasticamente al minimo variare della temperatura, della tensione della corrente elettrica o di vibrazioni sonore dovute alle voci di persone o a rumori presenti nella stanza. Ci sembrerebbe quindi che in generale l’instabilità di sistemi meccanici o anche di strutture sociali (ammesso che esse funzionino bene ed in maniera efficiente) possa essere una condizione non desiderabile. Le instabilità sono state, da ormai più di un secolo, l’oggetto dell’interesse degli scienziati che le hanno studiate in molteplici situazioni: nei fluidi, nei plasmi, in sistemi meccanici di vario tipo, in sistemi biologici, chimici e ottici. Praticamente, ogni sistema esistente in natura è soggetto a perturbazioni di vario genere causate dall’ambiente circostante, e tali perturbazioni se si amplificano possono portare all’instabilità dello stato originario del sistema in questione, causandone drammatici cambiamenti qualitativi. Lo studio delle instabilità è di grande interesse e le instabilità sono ritenute essere la base di innumerevoli fenomeni importanti, come per esempio la formazione di onde anomale negli oceani giusto per citarne uno.

Vorrei ora descriver brevemente alcune situazioni peculiari in cui il contesto laddove l’instabilità si manifesta non è da evitarsi, bensì da ricercarsi: situazioni in cui la stabilità è sorprendentemente un impedimento allo sviluppo di funzionalità tecnologicamente utili. Lo farò illustrando un paio di semplici esempi tratti dalla fisica dell’ottica non lineare. Prima di iniziare è bene fare una precisazione: mentre è palese che l’ottica sia la scienza che studia i fenomeni luminosi, il significato di “non lineare” potrebbe essere ben più oscuro ad un pubblico di non addetti ai lavori. L’elucidazione di cosa significhi “non lineare” in questo contesto richiederebbe sicuramente un approfondimento dedicato. Basti per ora dire che un mezzo materiale non lineare ha una risposta alla luce che vi propaga attraverso che è proporzionale al quadrato, al cubo (o ad altre potenze superiori) dell’ampiezza dell’onda luminosa stessa.  Un mezzo che si comporta in modo lineare ha invece una risposta semplicemente proporzionale all’ampiezza stessa dell’onda. La non linearità è alla base dei processi di generazione di nuove frequenze luminose, del funzionamento dei laser e di altri affascinanti fenomeni. In genere tali effetti non lineari sono deboli e richiedono grande intensità della luce per manifestarsi, ma quando si manifestano aprono le porte a dinamiche nuove ed inaspettate.

Ma, torniamo a noi. Il primo esempio è il seguente: consideriamo un’onda luminosa che si propaga lungo una fibra ottica. Una fibra ottica è un tubicino fatto di un particolare vetro dal diametro inferiore al millimetro che guida la luce e la mantiene confinata, grazie al fenomeno della riflessione totale interna, per distanze di propagazione che possono andare da parecchie decine a parecchie centinaia di kilometri. Di fatto, una fitta rete di fibre ottiche interconnesse sulla terra e sotto gli oceani, costituisce lo scheletro dell’intera infrastruttura di internet. Consideriamo per il momento, invece delle fibre lunghe molte decine di kilometri usate per le telecomunicazioni, una fibra lunga qualche decina di metri, e ad un capo della fibra iniettiamo un’onda di luce di una singola frequenza, un singolo colore se vogliamo (anche se in genere la radiazione elettromagnetica usata è nella parte del vicino infrarosso dello spettro). Se la fibra ha certe particolari proprietà (in gergo tecnico si dice che la dispersione cromatica è anomala, il che corrisponde a dire che onde di luce a frequenza più alta viaggiano a velocità maggiore di quelle a frequenza più bassa) e se la potenza dell’onda iniettata è sufficientemente elevata allora l’onda luminosa che osserviamo all’altro capo della fibra esibirà, a causa della non linearità, proprietà qualitativamente nuove e diverse da quelle che aveva all’ingresso. L’ampiezza dell’onda all’uscita dalla fibra non è più costante ma al contrario presenta delle notevoli variazioni che possono essere periodiche e regolari o anche alquanto irregolari ed erratiche a seconda delle condizioni in cui si svolge il processo. L’onda originaria è instabile, piccole perturbazioni, ondine che al capo iniziale della fibra avevano ampiezza irrilevante, sono cresciute notevolmente sottraendo energia dall’onda principale fino a modificarne qualitativamente la forma.

Tale processo è chiamato instabilità di modulazione. Esso è un fenomeno reso possibile dalla non linearità della risposta della fibra! Ora si potrebbe pensare che tale processo d’instabilità sia dannoso per il funzionamento di un dispositivo in cui si vuole l’onda di luce propagante rimanga invariata. Questa è sicuramente un’osservazione giustificata. Ma guardiamo la situazione da un’altra prospettiva: se l’onda primaria perde energia, le perturbazioni (onde oscillanti ad altre frequenze) la acquistano. Questa è la risorsa che possiamo sfruttare! Un’analisi matematica del problema ci permette di calcolare quanta energia guadagnano le piccole onde (il guadagno dell’instabilità), per lo meno nello stato iniziale della loro amplificazione, in funzione dei parametri che caratterizzano la fibra e l’onda primaria.

Ma, come possiamo rendere utile questo guadagno per le onde di piccola ampiezza? Se invece di lasciare che delle onde arbitrarie, iniziate da fluttuazioni quantistiche o da rumore ottico vengano amplificate nel processo di instabilità, possiamo invece iniettare noi all’ingresso della fibra oltre all’onda primaria (anche detta onda di pompa), delle onde di frequenza diversa, la cui energia è molto minore e che vogliamo amplificare. Un candidato ideale sono i segnali ottici che vengono usati per trasmettere informazione. Essi costituiranno il “seme” da cui si svilupperà l’instabilità dell’onda primaria assorbendone parte dell’energia, ed emergendo amplificate all’uscita della fibra.

I segnali ottici usati nelle telecomunicazioni in fibra consistono infatti di vari “canali”, ciascuno corrispondente ad una diversa frequenza, che propagano nelle fibre consentendo la trasmissione di informazione in parallelo. La crescente domanda di maggiore informazione da trasportare in fibra dovuta all’incremento dell’uso di internet nelle moderne società interconnesse richiede la continua aggiunta di nuovi canali (nuove frequenze). Questo però va ad aumentare la banda totale occupata dai segnali: l’aumento della banda è pressoché inevitabile, in quanto al momento non è possibile inviare segnali eccessivamente vicini in frequenza riducendo troppo lo spazio tra i canali. A causa delle perdite di energia che la luce subisce propagando lungo le fibre ottiche, si rende necessaria un’amplificazione periodica dei segnali lungo la linea di trasmissione. Gli amplificatori in fibra ad Erbio attualmente in uso, la cui invenzione ha permesso l’esistenza di internet per come lo conosciamo, possono amplificare segnali solo in una certa banda di frequenze. I ricercatori del settore lavorano alacremente per trovare soluzioni alternative. Una delle soluzioni più promettenti si basa appunto sull’instabilità di modulazione appena descritta e, sebbene questa sia ancora in fase di sviluppo a livello di ricerca ed ancora lontana dall’impiego tecnologico, ha già dimostrato di poter provvedere all’amplificazione di segnali ottici consentendo la trasmissione dell’informazione per migliaia di kilometri. Tale nuovo tipo di amplificatore è chiamato amplificatore parametrico in fibra ottica. Quindi, a partire da un semplice fenomeno fisico che comporta l’instabilità di un’onda di luce si è sviluppato un nuovo concetto tecnologico che potrebbe avere impatto rilevante nella società. Tanto è vero che i ricercatori al lavoro in questo campo studiano ora le condizioni per ingegnerizzare l’instabilità al fine di renderla il più possibile performante per i loro scopi: ottenere un trasferimento di energia significativo e omogeneo in una vasta banda di frequenze. Il paradigma dell’instabilità come effetto indesiderato è così rovesciato.

Passiamo ora al secondo esempio. Un altro caso particolarmente interessante dell’instabilità di modulazione è quello in cui luce a singola frequenza viene iniettata in un microrisuonatore ottico, ovvero una cavità tipicamente a forma di anello fatta di silice oppure di un materiale semiconduttore in cui la luce è ben confinata ed i fotoni possono circolare migliaia e migliaia di volte prima di fuoriuscire. La grande quantità di energia immagazzinata corrispondente ad un onda luminosa oscillante con una singola frequenza è tale da creare le condizioni, a causa della risposta non lineare del materiale, per un’instabilità dell’onda luminosa stessa. Tale onda si destabilizza amplificando altre onde di aventi frequenze differenti (altri “colori”) le quali inizialmente altro non erano che perturbazioni di ampiezza insignificante causate da fluttuazioni del vuoto quantisitico o da rumore ottico presente nel sistema. L’onda originaria vede la sua ampiezza modulata da onde differenti, ma equispaziate in termine di frequenza, che vengono amplificate; ed ecco che molte delle risonanze ottiche della cavità vengono eccitate. La luce all’interno della cavità da monocromatica è diventata policromatica. È importante menzionare il fatto che una cavità ottica supporta solamente oscillazioni che sono il multiplo intero di una frequenza fondamentale, e che quindi le onde luminose che possono risuonare nella cavità sono equispaziate in frequenza.

A causa del peculiare processo coinvolto in questa instabilità le onde di varie frequenze equispaziate oscillano in fase tra di loro (ovvero rispettando una certa sincronia): una luce con questo tipo di spettro di frequenza è chiamato pettine di frequenza. I pettini di frequenza hanno notevoli applicazioni e vengono o potrebbero in un vicino futuro essere usati in molteplici contesti, tra cui la spettroscopia di precisione, la misurazione remota di gas serra, la ricerca di esopianeti (pianeti esterni al nostro sistema solare), come orologi ottici ben più precisi degli esistenti orologi atomici ed altre ancora.

Per concludere, diciamo quindi che non tutte le instabilità vengono per nuocere e che anzi, al di là del loro intrinseco fascino scientifico, esse possono costituire una preziosa e inaspettata risorsa a cui attingere per la realizzazione di nuovi dispositivi ottici con notevoli ricadute pratiche. Gli esempi che abbiamo discusso, mostrano anche come argomenti di ricerca apparentemente accademici il cui studio è inizialmente perseguito per puro piacere o curiosità scientifica possano, per vie inaspettate, diventare materialmente utili per la società.

Auro M. Perego, PhD, è ricercatore presso l’Aston Institute of Photonic Technologies, Aston University, Birmingham, Regno Unito.

Indirizzo email: a.perego1@aston.ac.uk

Sito internet: www.nonlinearlight.com

Twitter account: @nonlinearlight

]]>
https://www.semidiscienza.it/2019/12/16/instabilita-di-luce-perche-sono-importanti/feed/ 0
Agricoltura e ambiente – criticità ed opportunità per il futuro https://www.semidiscienza.it/2019/09/02/agricoltura-e-ambiente-criticita-ed-opportunita-per-il-futuro/?utm_source=rss&utm_medium=rss&utm_campaign=agricoltura-e-ambiente-criticita-ed-opportunita-per-il-futuro https://www.semidiscienza.it/2019/09/02/agricoltura-e-ambiente-criticita-ed-opportunita-per-il-futuro/#respond Mon, 02 Sep 2019 17:32:07 +0000 https://www.semidiscienza.it/?p=623 L’agricoltura è l’attività economica che consiste nella produzione di cibo da destinare all’alimentazione umana tramite la coltivazione di specie vegetali erbacee ed arboree. La scoperta dell’agricoltura (risalente approssimativamente al 10.000 a.C.) è stata una vera e propria rivoluzione, in quanto ha permesso agli esseri umani di passare da società nomadi di cacciatori-raccoglitori a società stanziali. Ne è conseguito, quindi, il successivo sviluppo di comunità sedentarie di dimensioni crescenti, da piccoli villaggi a grandi città. Inoltre, nel corso dei secoli, l’esigenza di produrre sempre maggiori quantità di derrate alimentari, ha favorito processi di ricerca ed innovazione, che hanno portato allo sviluppo di nuove tecniche produttive da impiegare in campo. Gli esempi sono innumerevoli: la rotazione delle colture (per evitare il famoso fenomeno della “stanchezza del terreno”), l’impiego di macchine agricole per la lavorazione del terreno, lo sviluppo della scienza agronomica, la comparsa dei concimi chimici di sintesi e dei fitofarmaci per combattere le avversità delle piante coltivate.

Ma come spesso accade, una grande luce si porta anche dietro una grande ombra. Infatti, se da una parte l’agricoltura ha indubbiamente favorito lo sviluppo tecnologico e sociale, dall’altra ha introdotto nel sistema anche problematiche ambientali decisamente non trascurabili. Per esempio, l’impiego sempre più intensivo dei fertilizzanti chimici di sintesi ha causato l’inquinamento di falde acquifere sotterranee, mari e fiumi, provocando seri danni agli ecosistemi. l’ICEI (Istituto di Cooperazione Economica Internazionale) ha stimato che le sostanze riversate annualmente nei campi di tutto il mondo sono circa 138 milioni di tonnellate. Tutti queste enormi quantità sono anche responsabili del 95% delle particelle di ammoniaca presenti nell’aria. Un’altra problematica non trascurabile è lo sfruttamento indiscriminato delle acque di falda per l’irrigazione delle colture. Infatti, l’eccessivo utilizzo delle acque dolci sotterranee provoca un graduale esaurimento delle stesse, costringendo gli agricoltori ad attingere a fonti idriche non convenzionali, come acque saline e/o salmastre, spesso dannose per le coltivazioni e per il terreno. C’è poi l’eccessivo utilizzo degli antiparassitari per combattere le avversità delle piante coltivate. È risaputo, infatti, che l’uso indiscriminato degli insetticidi, se da una parte elimina gli insetti dannosi alle colture, dall’altra danneggia altri insetti dal ruolo biologico importante, come gli impollinatori (api e farfalle) e i predatori dei fitofagi (coccinelle). Un rapporto dell’Università di Sydney, che ha sintetizzato i risultati di 73 studi scientifici condotti, ha concluso che quasi la metà delle specie di insetti viventi sul pianeta è in rapido declino. Un Olocausto del tutto particolare che deve essere preso seriamente in considerazione.

Ma quali strumenti abbiamo a disposizione per evitare che l’agricoltura provochi irreparabili danni ambientali? La soluzione sta nella tecnologia. Negli anni recenti, sono state introdotte delle pratiche di agricoltura sostenibile che si basano su diversi principi. Vediamone alcune tra le più rilevanti:

Agricoltura di Precisione (o Precision Farming): Si basa sull’utilizzo di strumentazioni tecnologiche avanzate (immagini satellitari, sensoristica di campo, droni e algoritmi) al fine di eseguire interventi agronomici mirati, che tengano conto delle effettive esigenze delle colture, in modo da fornire la quantità esatta di fattori produttivi nel momento esatto. Questa pratica è molto efficiente ed evita inutili sprechi di prodotto, con significativi vantaggi ambientali, oltre che vantaggi economici per gli agricoltori. Attualmente in Italia, la superficie coltivata gestita coi metodi di agricoltura di precisione è soltanto l’1%, la cui quasi totalità viene impiegata in alcuni comparti produttivi ad alto reddito, come viticoltura, olivicoltura e frutticoltura. Nonostante ciò, è previsto che il numero di aziende che utilizzeranno le tecniche di precision farming cresceranno in maniera esponenziale nei prossimi anni.

Agricoltura Verticale (o Vertical Farming): è una tipologia di coltivazione di specie vegetali fuori suolo in ambienti protetti che si sviluppa su diversi piani in altezza, e dotata di sistemi automatizzati che forniscono acqua arricchita di elementi nutritivi a ciclo chiuso. Questo sistema ha il grosso vantaggio di risparmiare molta acqua e di produrre molte piante su superfici limitate. Secondo la ricerca “Future Farming”, condotta da Porsche Consulting, l’impiego delle metodologie di Vertical Farming saranno in grado di aumentare la produzione del 75% rispetto all’agricoltura tradizionale e di ridurre l’utilizzo di acqua del 95%. Inoltre, per via della loro natura, i sistemi di agricoltura verticale potranno essere impiegati in zone urbane, rendendo possibile la produzione di cibo a km 0.

Acquaponica: si basa sull’utilizzo combinato di acquacoltura e coltivazione idroponica, al fine di ottenere un sistema produttivo a ciclo chiuso, dove i prodotti di scarto dei pesci diventano nutrimento per le piante. Le colture acquaponiche sfruttano il ciclo naturale dell’azoto.  Infatti, l’azoto in forma di ammoniaca, proveniente dalle deiezioni dei pesci, viene trasformato nella forma nitrica grazie all’azione di specifici batteri, detti “nitrificatori”, per poi essere assimilato dalle piante. In questo modo si evita l’uso dei concimi chimici di sintesi, massicciamente utilizzati in agricoltura tradizionale. Inoltre, nei sistemi acquaponici l’acqua non viene sprecata, ma circola in continuazione e viene purificata tramite filtri, rendendola riutilizzabile.

Come vedete, la tecnologia rende disponibili diverse opzioni di agricoltura sostenibile. Sta solo a noi decidere cosa farne.

Simone Rossi – Agronomo, PhD

]]>
https://www.semidiscienza.it/2019/09/02/agricoltura-e-ambiente-criticita-ed-opportunita-per-il-futuro/feed/ 0