venerdì 21 giugno 2024

How do project finance structures differ between renewable energy projects and traditional fossil fuel projects?

Without any claim to exhaustiveness, we want to briefly highlight below some important points that are sometimes not reflected upon enough (with an international point of wiev) regarding the project financing of electricity generation projects. Particularly when analyzing the difference between project financing structures in renewable energy projects and traditional fossil fuel projects.

Many energy projects are made possible by the use of so-called export credits that most manufacturing countries establish for exporting their products to other countries. To use these credits, a specific analysis of the risks that must be faced in all phases of project implementation is necessary. Obviously a project is more financeable the more its risk profile is sustainable by the financiers and promoters of the project.

So the question: How do project finance structures differ between renewable energy projects and traditional fossil fuel projects?

The different economic and temporal dimensions (investment costs and duration as usually  pointed out) is correct but does not explain completly the question. In fact, for instance, there is also a natural difference on the physical dimension of the projects which has important implications. In one case (especially for photovoltaics) these generally involve many small electricity generation projects mainly for self-consumption (and feeding surpluses into the grid, if it exists) spread over a vast territory. Thus there is no risk of failure to withdraw production, which for large plants may instead require a specific "take or pay" contract to limit the risk. While in the case of fossil fuels these are generally large projects concentrated on a relatively small territory (usually two or four twin plants built together to save on construction costs). In this last case we are also subject to the availability of a transmission and distribution network, which conditions the withdrawal of production by users and affects the market and trade. All this also implies a difference in risks (financial, environmental, technological, economic, insurance, political and currency, etc.) which inevitably reflect on the "security package" necessary to finance the project. So in one case (renewables) there can be a lot of similarity in the procedures required for a normal mortgage (except benefiting from any incentives if provided for by local legislation). In the other case, however, since it is a large investment, the risks are much broader, including the risk of political instability, which can usually go as far as implying the sovereign guarantee on risks relating to the country promoting the project and also preventing the possibility of using the credits for the export of the machinery, plants and systems necessary for the plant by the producers. 

To complete the explanation, it should not be forgotten, finally, that "take or pay" contracts are usually also required for fossil fuel to power the electricity generation plant and avoid supply and market risks for the necessary fuel. This is not required for renewable plants, however, because light, wind and water are made available by natural cycles evaluated during the design of the plant itself. We could thus hastily conclude that renewable energy plants are immune from energy crises due to market effects, conflicts, or cartel operations that afflict primary fossil fuels, of which we could do without. But it would be a partial and untruthful reasoning, since the volatility of renewable production, which can vary moment by moment, requires primary regulation in voltage and frequency (i.e. in available power). This regulation in the domestic system can take place through accumulation (i.e. accumulator batteries), But on configurations of national plants connected to the grid, large power plants that carry out the base load service are still necessary (and to date only fossil or nuclear energy plants can carry out this service); just as medium-large power hydroelectric plants are needed which will entrust the primary regulation of the entire national system. It is concluded that, beyond small domestic systems, not even renewable energy can be self-sufficient and functional in solving energy problems. Therefore the stability of an energy system can only be based on a well-calibrated energy mix of all primary sources aiming at the global and local situation simultaneously. 


Refer also to:   

https://zenodo.org/records/8430982

https://zenodo.org/records/11182244

https://zenodo.org/records/10071687 



Big Data Analysis ed Esperimenti Sociali possibili attraverso i Social Media

Big Data Analysis ed Esperimenti Sociali possibili attraverso i Social Media

 I big data sono un’enorme quantità di dati che vengono generati da dispositivi connessi e applicazioni digitali. Le aziende cercano di trarre vantaggio da questi dati sviluppando le loro capacità legate all’analisi dei big data (BDA). Tuttavia, la questione della proprietà dei dati è cruciale, poiché i dati sono immagazzinati in data lake e utilizzati per scopi precedentemente sconosciuti.

 Un data lake è un repository centralizzato che immagazzina e processa grandi volumi di dati nella loro forma originale. Questi dati possono provenire da varie fonti e includere copie grezze dei dati di sistema, dati dai sensori, dati sociali e altro ancora. La caratteristica chiave di un data lake è la sua capacità di accogliere tutti i tipi di dati, da quelli strutturati (come tabelle di database e fogli Excel) a quelli semi-strutturati (come file XML e pagine web) e non strutturati (come immagini, file audio e tweet), senza compromettere la fedeltà dei dati. I file di dati sono generalmente suddivisi in zone di stoccaggio: grezzi, puliti e curati, per consentire a diversi utenti di utilizzare i dati nelle loro diverse forme per soddisfare le loro esigenze. I data lake forniscono una coerenza di base dei dati per una varietà di applicazioni, supportando analisi di big data, apprendimento automatico, analisi predittiva e altre forme di azione intelligente.

Ecco alcuni aspetti importanti su cui riflettere riguardanti i big data:

Proprietà dei dati: La proprietà dei dati riguarda i diritti e le responsabilità fondamentali relativi ai dati. È un aspetto critico nell’ambito dei BDA.

 Tipi di proprietà dei dati:

-        .  Proprietà dei dati: Riguarda chi possiede i dati stessi.

-         Proprietà della piattaforma dati: Si riferisce a chi gestisce l’infrastruttura (come i data lake) in cui i dati risiedono.

-          Proprietà del prodotto dati: Riguarda chi crea valore dai dati attraverso analisi e applicazioni.

Finalità dell’analisi dei big data:

-          Migliorare processi e prodotti esistenti.

-          Sviluppare nuovi modelli di business basati sui dati.

-          Consentire l’esplorazione e l’esperimento con i dati per l’innovazione.

Si da per scontato, ed è opportuno verificare, che esista un’etica al riguardo, nota anche semplicemente come etica dei dati, riguarda la sistematizzazione, la difesa e la raccomandazione di concetti di condotta corretta o scorretta in relazione ai dati, in particolare ai dati personali. Con l’aumento esponenziale della quantità e della qualità dei dati dall’alba di Internet, è fondamentale considerare gli aspetti etici della gestione dei dati. Questo include questioni come l’uso di dati di partenza sbilanciati, le violazioni della privacy e la ricerca del ritorno sull’investimento a breve termine a tutti i costi.

Occorre inoltre ricordare che attraverso i social media possono essere condotti esperimenti sociali, come il social lasing, che sollevano importanti questioni etiche e legali.

La teoria del social lasing[1], sviluppata dal Prof. Andrei Khrennikov, scienziato riconosciuto a livello globale, è un’interessante area di ricerca che collega la fisica quantistica al comportamento sociale. Tuttavia, al momento, non possiamo considerarla una teoria scientifica consolidata (e questo implica la necessità di dover sperimentare con i social media, poiché una teoria senza verifiche sperimentali, sebbene desunta e supportata matematicamente non può essere ancora considerata propriamente Scienza). Vediamo alcuni punti chiave:

Concetto di Social Lasing: Secondo questa teoria, i social atoms (analoghi ai fotoni nei laser) possono interagire attraverso infons (eccitazioni del campo di informazione sociale quantistica). Questo processo potrebbe portare a un “lasing sociale”, simile al lasing nei laser fisici.

Infons e Social Energy: Gli infons portano energia sociale e contengono informazioni di comunicazione. L’idea è che i social atoms possano raggiungere uno stato di inversione di popolazione (simile al concetto di popolazione inversion nel laser) grazie agli infons.

Verifiche Sperimentali: Al momento, non ci sono prove sperimentali solide che confermino il social lasing. La teoria è ancora in fase di sviluppo e richiede ulteriori ricerche e test empirici.

Applicazioni e Implicazioni: La teoria del social lasing potrebbe avere implicazioni interessanti per la comprensione dei processi sociali, ma è ancora oggetto di dibattito e studio.

In sintesi, mentre la teoria del social lasing è affascinante, dobbiamo attendere ulteriori verifiche sperimentali per stabilirne la validità scientifica.

E’ pertanto opportuno riaffermare i seguenti concetti riguardanti i social media:

Consenso informato: La maggior parte delle leggi richiede il consenso informato per la partecipazione a esperimenti o ricerche. Se gli utenti dei social media non sono consapevoli dell’esperimento e non hanno dato il loro consenso specifico, ciò potrebbe violare le normative sulla privacy e l’etica della ricerca.

Trasparenza: La trasparenza è fondamentale. Gli esperimenti sociali dovrebbero essere condotti in modo da informare chiaramente i partecipanti su ciò che sta accadendo e ottenere il loro consenso esplicito.

Leggi locali e internazionali: Le leggi variano da paese a paese. Tuttavia, molte giurisdizioni hanno leggi sulla privacy e la protezione dei dati che richiedono il rispetto del consenso e la trasparenza.

Etica e responsabilità: Anche se qualcosa è legale, ciò non significa necessariamente che sia eticamente accettabile. Le aziende e i ricercatori dovrebbero considerare l’impatto sociale e morale delle loro azioni.

In sintesi, l’esperimento sociale - sui social media - senza consenso informato potrebbe essere illegale e sicuramente solleva preoccupazioni etiche. È importante rispettare i diritti e la privacy degli utenti dei social media.

Ecco alcuni esempi del passato di esperimenti sociali controversi che hanno suscitato dibattiti e preoccupazioni:

L’Effetto Halo: Questo esperimento ha dimostrato che le valutazioni globali su una persona (ad esempio, la sua simpatia) influenzano anche i giudizi su tratti specifici (come l’intelligenza). È noto anche come “principio del bello è buono” o “stereotipo dell’attrattività fisica”.

Dissonanza Cognitiva: Questo esperimento esplora il disagio mentale che le persone provano quando cercano di mantenere due credenze conflittuali nella loro mente. Per risolvere questo disagio, le persone modificano i loro pensieri per allinearli con una delle credenze in conflitto e respingono l’altra.

Esperimento della Grotta dei Ladri: Questo studio ha esaminato come pregiudizi e conflitti emergono tra due gruppi di ragazzi. Ha evidenziato come i gruppi sviluppino naturalmente le proprie culture, strutture di status e confini, entrando poi in conflitto tra loro. La chiave per la riconciliazione è stata la focalizzazione su obiettivi superiori che vanno oltre i confini del gruppo stesso.

L’Esperimento della Prigione di Stanford: Condotto per esplorare come le persone reagirebbero a essere prigioniere o guardie carcerarie, ha rivelato come individui ordinari e sani potrebbero comportarsi crudelmente come guardie di prigione in determinate situazioni, anche se ciò andava contro la loro personalità.

Questi esperimenti hanno contribuito alla nostra comprensione della psicologia sociale, ma hanno anche sollevato importanti questioni etiche e morali.

Ma sembra opportuno richiamare in questo contesto l'esperimento sul conformismo sociale condotto da un gruppo di controllo sul singolo (o singolo gruppo) nell'identificazione di una scelta duale (bianco/nero) fino a contraddire l'evidenza che un gruppo di controllo invece afferma (bianco quando in realtà è nero) può rientrare tra essi, visto gli effetti di condizionamento produce.

L’esperimento a cui ci si riferisce qui è noto come l’esperimento di Asch sul conformismo sociale. Solomon Asch, psicologo sociale, condusse questo studio negli anni '50 per esaminare come la pressione del gruppo influenzasse la percezione individuale. Ecco come funzionava:

Partecipanti: Asch coinvolse un gruppo di partecipanti (di solito otto) e li mise insieme in una stanza.

Stimoli visivi: Mostrò loro una serie di tre segmenti di lunghezza diversa e chiese loro di indicare quale di essi fosse della stessa lunghezza di un segmento standard.

Influenza del gruppo: Tuttavia, gli altri partecipanti erano in realtà complici dell’esperimento e davano risposte errate in modo deliberato. Ad esempio, se il segmento era chiaramente nero, il gruppo affermava che fosse bianco.

Risultati: Il 75% dei partecipanti si adeguò almeno una volta alle risposte errate del gruppo. In termini assoluti, i partecipanti diedero risposte palesemente errate nel 32% dei casi, mentre senza la pressione del gruppo, le risposte esatte salivano al 98%.

Questo esperimento dimostra come la conformità sociale possa influenzare la percezione individuale, portando le persone a cambiare idea o a negare l’evidenza oggettiva a causa della pressione del gruppo.

Ora immaginiamo tutto ciò praticato sui social media e cerchiamo di prefigurare cosa può succedere.

 

(Il presente post è stato realizzato con l’ausilio di Copilot di Microsoft Edge)


sabato 4 maggio 2024

Ottimizzare la producibilità di un impianto fotovoltaico con le attuali tecnologie?

 Dati di letteratura indicano che oggi i collettori fotovoltaici moderni hanno un rendimento medio intorno al 15%, con una prestazione più bassa nei pannelli in silicio amorfo, dove si parla di un rendimento del 9% circa, fino ad arrivare ai più costosi ed evoluti moduli in silicio monocristallino con un rendimento medio del 20% circa. Punte  di valori fino al 23,5% sono presenti in offerte recenti dove il dato rientra tra le prestazioni garantite.

I più recenti pannelli fotovoltaici bifacciali, basati invece su una cella bifacciale e una pellicola trasparente sul retro, utilizzando sia la luce incidente sul lato anteriore che sul lato posteriore, lascia attendere un rendimento fino al 30 %. Infine, nonostante la possibilità di pannelli in perovskite sembrava produrre un generalizzato abbassamento dei costi, ma con rendimenti intorno al 21,5%, si sono avuti recenti annunci sui media che è stata raggiunta un’efficienza del 33,9% di una singola cella fotovoltaica tandem, realizzata cioè in silicio e perovskite[1].




Miglioramenti della producibilità potrebbero essere anche conseguiti con un più accurato orientamento dei pannelli fotovoltaici. Ma questa via sembra più complessa di quanto si possa pensare.

Come noto, la producibilità media annua unitaria di un impianto fotovoltaico dipende innanzitutto dalla località geografica in cui l’impianto è ubicato, ed è espressa in kWh/kW cioè in  chilowattora producibili per ogni chilowatt di potenza nominale dell’impianto. Con le tecnologie oggi disponibili, salvo sistemi di concentrazione o ricerca, i valori qui sopra indicati nella mappa UE/JRC devono essere considerati cautelativamente come la massima energia estraibile (in kWh)  da ogni kW di potenza (di picco) installata.

Alle nostre latitudini, si assume come pratica consuetudine che i moduli siano orientati esattamente a Sud e inclinati di circa 30°-35° sull’orizzontale (l’inclinazione esatta, detta anche “tilt”, dipende dalla latitudine geografica del sito dell’impianto).

Talvolta, anche gli inevitabili effetti di ombreggiature su un sito determinato, potrebbero rendere opportuna qualche verifica. Per  il posizionamento ottimale di grandi impianti fotovoltaici, si potrebbero fare vere e proprie  campagne simulative preventive su pannelli di prova, attrezzati con solarimetri, per rilevare misure di  potenza su un lungo periodo di tempo e ottimizzare i parametri di esposizione dei pannelli fotovoltaici. Oppure valutare la convenienza di adottare impianti con inseguimento del punto di massima potenza, che varia a seconda dell’ora del giorno, della stagione nonché delle luminosità e altri parametri atmosferici, come nuvolosità, umidità, particelle in sospensione, temperature, etc.. Ciò si traduce nella necessità di sistemi complessi per variare in tempo reale gli angoli e quindi l’orientamento spaziale  dei pannelli. Sistemi che non sempre risultano economicamente convenienti, anche perché le condizioni ambientali sono mutevoli e non del tutto prevedibili. Così anche per i grandi impianti si scende spesso a compromessi di mediazione.

La situazione non è molto diversa per i medi e piccoli impianti, specie quelli per la produzione domestica, dove si ricorre a pratiche consuetudinarie che conducono ad una installazione fissa che entro certi limiti potrebbe anch’essa essere ottimizzata scegliendo angoli di orientazione dei pannelli che variano almeno a seconda della posizione geografica e delle condizioni locali del sito di installazione. In teoria, anche in questo caso si potrebbero fare dei sopralluoghi sul sito di posizionamento dei pannelli e con una misura di luminanza (lux) almeno verificare le producibilità attese sopra riportate nella mappa, convertendo poi i lux rilevati in W/m2. A questo scopo possono essere utili apparecchiature disponibili in commercio a prezzi accessibili[1],  o anche con smartphone dotati di applicazioni reperibili su GooglePlay[2]   che permettono di rilevare misure di luminanza in lux e  - trattandosi di luce solare – convertire tale valore in W/m2 ricordando che :

Il lux (simbolo: lx) è l'unità di illuminamento, o flusso luminoso per unità di superficie, nel Sistema Internazionale di Unità (SI). È pari a un lumen per metro quadrato. In fotometria viene utilizzato come misura dell'intensità, percepita dall'occhio umano, della luce che colpisce o attraversa una superficie.

Non esiste una conversione semplice, dipende dalla lunghezza d'onda o dal colore della luce. Tuttavia, per il sole esiste una conversione approssimativa di 0,0079 W/m2 per Lux. Ad esempio, per inserire i numeri: se leggiamo 75.000 Lux su un sensore solare, convertiamo tale lettura in W/m2 come segue: 75.000×0,0079=590 W/m2.

In ogni caso si tratta di verifiche che andrebbero eseguite su tempi lunghi, che richiedono dispendio di risorse e  che sinora, non appaiono ancora molto praticate, perché evidentemente il “gioco non vale la candela”.

A titolo di puro esempio si riporta qui di seguito la pianificazione con i relativi dati di input/output - (effettuata con il simulatore  messo a punto dal  Dott. M. Menichella vedasi www.consulente-energia.com  ) -  di un impianto famigliare da 6kW in corso di realizzazione nella zona di Roma con pannelli che garantiscono il 22% di rendimento, una garanzia per 10 anni e un ciclo di vita atteso di 30 anni.





NOTA BENE: Come si può vedere, nel caso riportato sopra non si è tenuto conto della detrazione fiscale, oggi possibile nella misura del 50% del costo, "spalmata" in 10 anni. 
Qualora si tenesse conto di tale detrazione fiscale il grafico del flusso di cassa si modifica come segue.


Per concludere, sembra opportuno sottolineare un ultimo elemento di ostacolo alla producibilità del fotovoltaico e alla diffusione di piccoli impianti fotovoltaici con potenza nominale di 3 ÷ 4 kW, soprattutto nei piccoli e grandi condomini cittadini. Con le tecnologie più recenti, questi piccoli impianti fotovoltaici necessitano di superfici modeste per la loro installazione: ad es. per esempio. 15÷20 m2 e si prestano molto bene a fungere da coperture (o schermi) per balconi e terrazzi in sostituzione delle tende da sole esistenti e già installate, spesso assolutamente necessarie sia nelle calde stagioni estive che nelle piovose stagioni primaverili/autunnali, nonché come in quelli invernali. Insomma, l'impianto fotovoltaico può allo stesso tempo sostituirsi alle tende da esterno, o convivere con esse, soprattutto nelle case condominiali; ma ciò è ostacolato da regolamenti sia condominiali che comunali (o regionali) che vietano di alterare la “facies” esterna di un edificio condominiale. È convinzione di molti che la rimozione dei vincoli imposti da analoghe normative potrebbe favorire fortemente la diffusione di piccoli impianti, fino ad oggi di fatto vietati per le ragioni sopra esposte.

giovedì 4 aprile 2024

Physics for Philosophers? Welcome back!

 

Physics for Philosophers? Welcome back!

 

From the Age of Enlightenment up to present day, Physics with the help of Mathematics has changed and continues to profoundly change the World and the vision that Man has of it. But in all this time, neither Philosophy nor the Philosophy of Science has remained at a standstill, if we think of the birth of the STOQ disciplines (Science, Theology and the Ontological Quest) in various universities including some Pontifical ones; thanks also to the John Templeton Foundation as well as the STOQ Foundation. Rather, it can be said that the contrast that arose between Humanism and Scientism, if on one hand it created obstacles, on the other it produced the need for a rapprochement between disciplines that were once fused together or, if you prefer, jointly "con-fused". In this regard, it is enough to remember Aristotelian Physics and Metaphysics up to the Theology (e.g. Treatise on the Apocalypse) and the Philosophiae Naturalis Principia Mathematica of Isac Newton (defined by someone as "a theologian lent to Science").

"Physics for Philosophers (ISBN 978-88-430-9962-7)" is also the (translated) title of a recent book by Carlo Cosmelli for the course held at the Faculty of Philosophy of the Sapienza University of Rome. A commendable attempt to locally recreate a bridge between two disciplines which, starting from a precise same origin, have not been able to avoid the separatist tensions of History to leave room for specialist approaches. Ultimately "Physics for Philosophers" can be considered an attempt to rediscover and grasp meaning not only in the specialized approach to problems, but also and above all in the holistic approach. Specialization or multidisciplinarity, science or humanism, can in fact only be two different attitudes towards Knowledge, but they cannot constitute a choice for Human Knowledge because it is oriented towards an asymptotic limit: unique, intact and unattainable in any case. Knowledge has no limits, has no age, has no boundaries and cannot be the subject of any form of royalties. In this regard, precisely at a time when the debate on artificial intelligence has opened between opportunities and concerns, the reflective contribution offered by Melvin M. Vopson (School of Mathematics and Physics, University of Portsmouth, Portsmouth PO1 3QL, United Kingdom) appears commendable, in particular with his most recent work "The second law of infodynamics and its implications for the simulated universe hypothesis" (Oct.2023). A hypothesis that  M.Vopson himself does not hesitate to define as a philosophical theory, but full of reflections and arguments, especially regarding symmetry. Below is a series of works and the related abstracts, also due to the potential great relevance and great interest that these research works seem to have in the context of a Physics (II)  course for Philosophers at Sapienza University of Rome . The exchange of correspondence with Melvin Vopson - also reported below. - clarifies the context that gave rise to this post.

 

---------------------------------------Correspondence exchanged---------------------------------------

Dear Professor Vopson,

You literally made me tremble with the proposal of your conjectures potentially transformable into real principles of physics, if proven experimentally. I also thought about whether information processes somehow bind the parties involved together from time to time, leading them to interact together and thus create stronger bonds that require more bonding energy than would be needed without interaction. (As for example quarks do in a proton or neutron through gluons). I even went so far as to ask myself whether the mass - as Relativity teaches us - was not missing some attribute to be truly representative of the equivalent energy content and whether the Rienmann tensor (Ricci + Weyl) also took into account a binding IT contribution,  as well as a magnetic contribution if the mass has a magnetic/electric field that interacts and binds. I asked myself if it will ever be possible in the new physics to have a formulation of Total Energy, with many different components, in the manner of Bernoulli in hydraulics, in such a way that if in a process that moves A to B it is clear which of the various components of the Total Energy varies and how, leaving the Principle of Conservation of Energy intact. Maybe we could discover that some bonds can produce energy by extracting it from the unexpected (e.g. Zero-Point-Energy?).

Therefore, if I had the financial possibilities of a great philanthropist and benefactor of humanity, I would also finance your research to verify, through matter-antimatter annihilation, your theory on "The mass-energy-information equivalence principle", also to discover whether all the information in the universe can be stored in a mass that can be contained in a shopping bag and whether or not to do so we would have to consume a good part of all the humanly available energy.

Thank you Prof. Vopson for these works which I summarize below and which - with your permission -  I would like to put on my blog together with this letter available to those who are interested in the topic.

Kind Regards

Rocco Morelli

 

1.       THE MASS-ENERGY-INFORMATION EQUIVALENCE PRINCIPLE

AIP Advances 9, 095206 (2019); doi: 10.1063/1.5123794 – by Melvin M. Vopson -  University of Portsmouth, School of Mathematics and Physics, PO1 3QL Portsmouth, UK

https://pubs.aip.org/aip/adv/article/9/9/095206/1076232/The-mass-energy-information-equivalence-principle 

ABSTRACT

Landauer’s principle formulated in 1961 states that logical irreversibility implies physical irreversibility and demonstrated that information is physical. Here we formulate a new principle of mass-energy-information equivalence proposing that a bit of information is not just physical, as already demonstrated, but it has a finite and quantifiable mass while it stores information. In this framework, it is shown that the mass of a bit of information at room temperature (300K) is 3.19 × 10-38 Kg. To test the hypothesis we propose here an experiment, predicting that the mass of a data storage device would increase by a small amount when is full of digital information relative to its mass in erased state. For 1Tb device the estimated mass change is 2.5 × 10-25 Kg.

 

2.       THE INFORMATION CATASTROPHE

AIP Advances 10, 085014 (2020); doi: 10.1063/5.0019941 – by Melvin M. Vopson - School of Mathematics and Physics, University of Portsmouth, PO1 3QL Portsmouth, United Kingdom

https://pubs.aip.org/aip/adv/article/10/8/085014/990263/The-information-catastrophe

ABSTRACT

Currently, we produce 1021 digital bits of information annually on Earth. Assuming a 20% annual growth rate, we estimate that after 350 years from now, the number of bits produced will exceed the number of all atoms on Earth, 1050. After 300 years, the power required to sustain this digital production will exceed 18.5 × 1015 W, i.e., the total planetary power consumption today, and after 500 years from now, the digital content will account for more than half Earth’s mass, according to the mass-energy–information equivalence principle. Besides the existing global challenges such as climate, environment, population, food, health, energy, and security, our estimates point to another singular event for our planet, called information catastrophe.

 

3.       ESTIMATION OF THE INFORMATION CONTAINED IN THE VISIBLE MATTER OF THE UNIVERSE

AIP Advances 11, 105317 (2021); doi: 10.1063/5.0064475 – by Melvin M. Vopson-  University of Portsmouth, School of Mathematics and Physics, PO1 3QL Portsmouth, UK

https://pubs.aip.org/aip/adv/article/11/10/105317/661214/Estimation-of-the-information-contained-in-the

ABSTRACT

The information capacity of the universe has been a topic of great debate since the 1970s and continues to stimulate multiple branches of physics research. Here, we used Shannon’s information theory to estimate the amount of encoded information in all the visible matter in the universe. We achieved this by deriving a detailed formula estimating the total number of particles in the observable universe, known as the Eddington number, and by estimating the amount of information stored by each particle about itself. We determined that each particle in the observable universe contains 1.509 bits of information and there are 6 × 1080 bits of information stored in all the matter particles of the observable universe.

 

4.       EXPERIMENTAL PROTOCOL FOR TESTING THE MASS–ENERGY–INFORMATION EQUIVALENCE PRINCIPLE

AIP Advances 12, 035311 (2022); doi: 10.1063/5.0087175 – by Melvin M. Vopson -  University of Portsmouth, School of Mathematics and Physics, PO1 3QL Portsmouth, UK

 https://pubs.aip.org/aip/adv/article/12/3/035311/2819739/Experimental-protocol-for-testing-the-mass-energy

ABSTRACT

The mass–energy–information equivalence principle proposed in 2019 and the information content of the observable matter in the universe estimated in 2021 represent two important conjectures, called the information conjectures. Combining information theory and physical principles of thermodynamics, these theoretical proposals made specific predictions about the mass of information as well as the most probable information content per elementary particle. Here, we propose an experimental protocol that allows for empirical verification of the information conjectures by confirming the predicted information content of elementary particles. The experiment involves a matter–antimatter annihilation process. When an electron–positron annihilates, in addition to the two 511 keV gamma photons resulting from the conversion of their rest masses into energy, we predict that two additional low energy photons should be detected, resulting from their information content erasure. At room temperature, a positron–electron annihilation should produce two 50 μm wavelength infrared photons due to the information erasure. This experiment could, therefore, confirm both information conjectures and the existence of information as the fifth state of matter in the universe.

---------------------------------------Correspondence exchanged--------------------------------------

Dear Rocco,

I hope you don't mind addressing you by your first name, but if you do please accept my apologies. Also, please call me Melvin.

Thank you very much for your email and for sharing your interesting ideas about possible extrapolations and applications of my research.

I can confirm that most of the things you suggested are aligned with my own ideas, and this gives me the necessary support and confidence in this work. 

Please feel free to list on your blog anything you wish. 

As you said, these are "conjectures potentially transformable into real principles of physics, if proven experimentally."

However, I would like to share with you my most recent work, which indeed translates into a new "law of physics" and, unlike the mass-energy-information equivalence principle which requires experimental validation, this new work is already validated.

Here is the link to the article (free to download). I promise you, this one makes a really interesting reading.

https://doi.org/10.1063/5.0173278

Once again, many thanks for reaching out.

Yours,

Melvin

Dr. Melvin M. Vopson FHEA, FInstP, CPhys
Associate Professor of Physics and CEO of the Information Physics Institute

School of Mathematics & Physics
University of Portsmouth
Portsmouth  PO1 3HF

United Kingdom

 

5.               THE SECOND LAW OF INFODYNAMICS AND ITS IMPLICATIONS FOR THE  SIMULATED UNIVERSE HYPOTHESIS

AIP Advances 13, 105308 (2023); doi: 10.1063/5.0173278– by Melvin M. Vopson -  University of Portsmouth, School of Mathematics and Physics, PO1 3QL Portsmouth, UK

https://pubs.aip.org/aip/adv/article/13/10/105308/2915332/The-second-law-of-infodynamics-and-its

ABSTRACT

The simulation hypothesis is a philosophical theory, in which the entire universe and our objective reality are just simulated constructs. Despite the lack of evidence, this idea is gaining traction in scientific circles as well as in the entertainment industry. Recent scientific devel[1]opments in the field of information physics, such as the publication of the mass-energy-information equivalence principle, appear to support this possibility. In particular, the 2022 discovery of the second law of information dynamics (infodynamics) facilitates new and interesting research tools at the intersection between physics and information. In this article, we re-examine the second law of infodynamics and its applicability to digital information, genetic information, atomic physics, mathematical symmetries, and cosmology, and we provide scientific evidence that appears to underpin the simulated universe hypothesis.

-----------------------------------------------------------------------------------------------------------------

6. CONCLUSION

Let's hope that Carlo Cosmelli and Sapienza University of Rome, even on the basis of what has been indicated above, will be well disposed and inclined to activate a second course in Physics (II) for Philosophers which could contain these highly topical themes.


7. APPENDIX

Even if the blue dotted line will be the one along which human civilization could presumably move in the next two centuries, this still does not remain a reassuring prospect for future generations.





sabato 23 marzo 2024

L'ITALIA NON DIMENTICA IL SUO FILOSOFO PIÙ NOTO!

 «Al di là di ogni opzione confessionale o ideologica, Tommaso d’Aquino è stato senza dubbio il filosofo e teologo di maggior rilievo nella storia del nostro Paese, e certamente quello che ha esercitato la maggiore influenza al di fuori dei nostri confini – un impatto perfino superiore, in termini istituzionali, a quello di Dante, come attestano le tantissime strutture universitarie in tutto il mondo che portano tuttora il nome del maestro domenicano». Lo riportava un articolo di Pasquale Porro dal titolo «TOMMASO SOTTO TONO. L'ITALIA DIMENTICA IL SUO FILOSOFO PIÙ NOTO» pubblicato martedì 20 febbraio 2024 sul quotidiano cattolico Avvenire https://www.avvenire.it/opinioni/pagine/tommaso-sotto-tono-litalia-dimentica-il-suo-filosofo-pi-noto. Articolo che forse ha risvegliato qualche “torpore” intravisto altrove, ma non certo nel territorio aquinate e circondario locale,  che ha nutrito e nutre rispetto e devozione per il suo Santo, da sempre. Infatti, la memoria liturgica di San Tommaso d’Aquino, che come riporta il calendario cade il 28 gennaio ed è oggetto di celebrazione da parte della Chiesa Cattolica,  non ha impedito di celebrare (vedasi qui sotto le rispettive locandine dei due Comuni laziali) anche il 7 marzo scorso, sia nel Comune di Aquino che in quello della vicina Roccasecca, il 750-esimo anniversario della morte del grande Dottore della Chiesa, che avvenne nel convento di Fossanova (nel Lazio).


Locandine delle Celebrazioni nel Comune di Roccasecca

Locandina delle Celebrazioni nel Comune di Aquino

Occasioni in cui è stato da più parti ricordato che nel 2025 ricadrà 800-esimo anniversario della sua nascita. Nascita che in passato è stata motivo di una disputa popolare tra i cittadini di Aquino e quelli di Roccasecca che se  ne contendevano la con-cittadinanza; cosicché un’antica statua del Santo che era tenuta storicamente presso la Chiesa della Madonna della Libera ad Aquino fu trafugata nottetempo dai Roccaseccani. Si racconta ancora che da parte degli Aquinati  (forse memori di quel «ferocior ad bellandum» che distingueva tutti i Ciociari in epoca Romana!) si giunse ai forconi per riportare la statua di San Tommaso nella loro Chiesa.

Grande apprezzamento, successo di pubblico, affluito numeroso, e di critica mediatica, ha avuto la mostra iconografica organizzata e gestita da Camillo Marino, uomo di cultura, rinomato collezionista e antiquario locale, sempre attivo e partecipe in occasioni celebrative che riguardino il circondario locale e che è stato recentemente insignito dall’Accademia Internazionale Ora et Labora, del titolo di Accademico di Merito, proprio per le sue innumerevoli attività sociali e culturali. Sono stati esibiti il 65% dei reperti della sua personale collezione, alcuni dei quali settecenteschi e che la sua devozione al Santo porta ad incrementare con nuove, ricercate  e preziose acquisizioni di ogni provenienza. Materiale iconografico prezioso, non solo culturalmente, ospitato per l’occasione nella bella Sala Consiliare del Comune di Roccasecca, con ogni cura e dove sono intervenute autorità civili e religiose che si sono complimentate con Camillo Marino, anche per le informazioni fornite con competenza e precisione su ciascuno dei reperti esibiti.

                          Il Card. Semeraro ed il Vescovo Diocesano Antonazzo con Camillo Marino 

Il Presidente del Consiglio Provinciale Prof. Ing. Gianluca Quadrini  
insieme a colleghi ed amici intervenuti
Il Sindaco di Roccasecca Avv. Giuseppe Sacco con Camillo Marino, 
e con gli Aquinati Costanzo e Antonino 
della vecchia famiglia Conte di Aquino
Una giornata memorabile per contenuti, incontri e ricordi significativi

ALCUNI COMMENTI COLTI TRA GLI INTERVENUTI
1- Camillo Marino:  San Tommaso è di tutti, ed è così grande  che la disputa tra Aquino e Roccasecca sulla sua nascita è priva di senso, anche perchè c'è Gloria per Tutti!
2 - Costanzo Conte: questo piccolo paese, che non vedevo da tanto tempo, ha conservato la sua onorabilità e la sua facies cittadina. 
3 - Un anonimo (tra la folla) : Sulla Rocca ci sono le rovine del Castello dei Conti di Aquino. Forse era dove la nobile famiglia soggiornava in estate alla ricerca del fresco in collina e può darsi che proprio li San Tommaso sia stato concepito o sia nato?

P.S. Chissà se la recente letteratura con il suo avvincente thriller storico dal titolo "San Tommaso e l'ombra del Diavolo" riuscirà a dipanare i presunti misteri sulla morte oltre a quelli sulla nascita del Dottore Angelico? (vedi https://www.ilgiornale.it/news/san-tommaso-e-lombra-diavolo-2299333.html )










 


sabato 9 marzo 2024

Un aggiornamento su un sistema d'Intelligenza Artificiale (IA) disponibile in Rete: Siamo sicuri che è già "pronta" ?

 Argomento: Unità di misura ppm

 

             Copilot (di Microsoft Edge)

Il tuo AI Companion quotidiano

A Domanda

Risponde

 Tu

L'unità di misura parti per milione è riferita al peso o al volume ?


Copilot

L’unità di misura parti per milione (ppm) può riferirsi sia al peso che al volume. In generale, ppm è un’unità di misura adimensionale che indica un rapporto tra quantità misurate omogenee di un milione a uno.

Quando si parla di sostanze solide o liquide, ppm di solito si riferisce al peso, quindi 1 ppm equivale a 1 mg/kgPer esempio, se si misura la concentrazione di un inquinante nel suolo, ppm indicherà il peso dell’inquinante per unità di peso del suolo1.

Per i gas, si utilizza spesso ppmv (parti per milione in volume), che misura la concentrazione di un gas nell’aria come volume per volume, ad esempio 1 ppmv di CO2 in aria significa che in un milione di unità di volume di aria, una di queste è CO22.

In sintesi, ppm può essere utilizzato per indicare sia il peso che il volume, a seconda del contesto in cui viene applicato.

  

Tu

Mi riferisco alla tua precedente risposta e ti chiedo di spiegarmi come è possibile che pur variando il peso per unità di volume e il peso per unità di massa di ogni composto o elemento, tu dici che l'unità ppm si può riferire sia a peso che volume perchè è un rapporto? Non ci dovremmo aspettare che pur essendo un rapporto esso deve essere necessariamente diverso se preso in peso o in volume?

 

Copilot

La tua domanda è molto pertinente e tocca un punto fondamentale nella comprensione delle unità di misura come le ppm. La chiave per comprendere questa apparente contraddizione sta nel contesto in cui le ppm vengono utilizzate.

Le ppm, come hai giustamente osservato, sono un rapporto e quindi una misura adimensionale. Questo significa che le ppm indicano un numero di parti di una sostanza per un milione di parti della stessa unità di misura. Quando si parla di ppm in termini di peso (ppmw), si riferisce al peso di una sostanza per milione di parti di peso del composto o della miscela in cui è presente. Allo stesso modo, quando si parla di ppm in termini di volume (ppmv), si riferisce al volume di una sostanza per milione di parti di volume del composto o della miscela123.

La confusione può sorgere quando si considerano le proprietà fisiche dei diversi composti o elementi, come la densità, che influenzano il peso per unità di volume. Tuttavia, quando si utilizzano le ppm, si sta effettivamente normalizzando la misura in modo che sia indipendente da queste proprietà. In altre parole, 1 ppm di una sostanza in un liquido o in un gas rappresenta sempre una parte su un milione, indipendentemente dal peso o dal volume specifico di quella sostanza.

Per esempio, se si misura la concentrazione di un inquinante nell’aria in ppmv, si sta dicendo che per ogni milione di unità di volume di aria, c’è un’unità di volume dell’inquinante, indipendentemente dal peso di quell’inquinante. Analogamente, se si misura la concentrazione di un soluto in una soluzione in ppmw, si sta dicendo che per ogni milione di unità di peso della soluzione, c’è un’unità di peso del soluto, indipendentemente dal volume di quel soluto.

In conclusione, le ppm possono essere utilizzate sia per il peso che per il volume perché sono un modo per esprimere un rapporto che è indipendente dalle proprietà fisiche specifiche della sostanza in questione. Questo le rende uno strumento molto versatile e utile in molte applicazioni scientifiche e tecniche.

 

Tu

Quindi se si parla di ppm di CO2 nell'aria si devono necessariamente avere due numeri diversi: uno per ppmw ed uno per ppmv che non possono essere uguali! E' così?

 

Copilot

Esatto, quando si parla di ppm di CO2 nell’aria, i valori di ppmw (parti per milione in peso) e ppmv (parti per milione in volume) non sono necessariamente uguali a causa delle diverse proprietà fisiche dei gas.

Per esempio, la densità di un gas può variare in base alla temperatura e alla pressione, influenzando così il rapporto tra il peso e il volume. Di conseguenza, ppmw e ppmv possono fornire misure diverse.

Inoltre, per convertire ppmw in ppmv o viceversa, è necessario considerare la densità del gas e la densità dell’atmosfera totale, oltre ai pesi molecolari del gas e dell’atmosfera1.

In pratica, per la CO2 nell’aria, si utilizza più comunemente il valore ppmv, poiché è più rilevante per la misurazione della concentrazione di gas nell’atmosfera. Tuttavia, per applicazioni specifiche dove è necessario conoscere il peso esatto del gas, si potrebbe utilizzare ppmw, tenendo conto delle conversioni appropriate basate sulle proprietà fisiche del gas in questione.

 

Tu

Mi spieghi allora perchè nella tua prima risposta alla mia prima domanda su questo argomento hai affermato che una misura di ppm può riferirsi sia al peso che al volume, essendo un rapporto, senza aggiungere che ciò è valido solo se la misura è stata (o sarà) fatta in peso o in volume? Non ti sembra che la tua risposta possa essere considerato un errore, o quanto meno possa indurre in errore?

 

Copilot

Hai ragione, la mia risposta avrebbe dovuto essere più precisa. Quando ho affermato che le ppm possono riferirsi sia al peso che al volume, avrei dovuto chiarire che ciò dipende dal contesto specifico in cui vengono misurate e che le due misure non sono direttamente intercambiabili senza le dovute conversioni.

Le ppm sono un modo per esprimere una concentrazione molto bassa di qualcosa in un’altra sostanza. Quando si utilizzano le ppm, è importante specificare se si sta parlando di ppm in peso (ppmw) o in volume (ppmv), poiché i valori possono differire a seconda della densità dei materiali coinvolti.

Mi scuso per l’omissione e per qualsiasi confusione che possa aver causato. La precisione è fondamentale quando si discutono misure e unità di misura, e apprezzo che tu abbia sollevato questo punto. Grazie per avermi dato l’opportunità di chiarire.

 Conversazione avvenuta a Roma il 09/03/2024


OSSERVAZIONI

Senza dubbio l'IA, così com'è oggi, può essere di grande aiuto nello studio, nella ricerca, nella vita quotidiana. Ma l'accuratezza dei sistemi di IA, almeno quelli messi a disposizione del grande pubblico, non sembrano aver raggiunto gradi di affidabilità per assumere decisioni "acriticamente" senza feed-back" e senza la mediazione di una interfaccia "umana pensante". Lodevole è invece la disponibilità dell'IA a "rivedere le proprie posizioni" e a riconoscere manchevolezze, in definitiva a "correggersi", che appare essere molto superiore a quella "umana", o almeno a quella mediamente diffusa ai nostri giorni.