giovedì 4 aprile 2024

Physics for Philosophers? Welcome back!

 

Physics for Philosophers? Welcome back!

 

From the Age of Enlightenment up to present day, Physics with the help of Mathematics has changed and continues to profoundly change the World and the vision that Man has of it. But in all this time, neither Philosophy nor the Philosophy of Science has remained at a standstill, if we think of the birth of the STOQ disciplines (Science, Theology and the Ontological Quest) in various universities including some Pontifical ones; thanks also to the John Templeton Foundation as well as the STOQ Foundation. Rather, it can be said that the contrast that arose between Humanism and Scientism, if on one hand it created obstacles, on the other it produced the need for a rapprochement between disciplines that were once fused together or, if you prefer, jointly "con-fused". In this regard, it is enough to remember Aristotelian Physics and Metaphysics up to the Theology (e.g. Treatise on the Apocalypse) and the Philosophiae Naturalis Principia Mathematica of Isac Newton (defined by someone as "a theologian lent to Science").

"Physics for Philosophers (ISBN 978-88-430-9962-7)" is also the (translated) title of a recent book by Carlo Cosmelli for the course held at the Faculty of Philosophy of the Sapienza University of Rome. A commendable attempt to locally recreate a bridge between two disciplines which, starting from a precise same origin, have not been able to avoid the separatist tensions of History to leave room for specialist approaches. Ultimately "Physics for Philosophers" can be considered an attempt to rediscover and grasp meaning not only in the specialized approach to problems, but also and above all in the holistic approach. Specialization or multidisciplinarity, science or humanism, can in fact only be two different attitudes towards Knowledge, but they cannot constitute a choice for Human Knowledge because it is oriented towards an asymptotic limit: unique, intact and unattainable in any case. Knowledge has no limits, has no age, has no boundaries and cannot be the subject of any form of royalties. In this regard, precisely at a time when the debate on artificial intelligence has opened between opportunities and concerns, the reflective contribution offered by Melvin M. Vopson (School of Mathematics and Physics, University of Portsmouth, Portsmouth PO1 3QL, United Kingdom) appears commendable, in particular with his most recent work "The second law of infodynamics and its implications for the simulated universe hypothesis" (Oct.2023). A hypothesis that  M.Vopson himself does not hesitate to define as a philosophical theory, but full of reflections and arguments, especially regarding symmetry. Below is a series of works and the related abstracts, also due to the potential great relevance and great interest that these research works seem to have in the context of a Physics (II)  course for Philosophers at Sapienza University of Rome . The exchange of correspondence with Melvin Vopson - also reported below. - clarifies the context that gave rise to this post.

 

---------------------------------------Correspondence exchanged---------------------------------------

Dear Professor Vopson,

You literally made me tremble with the proposal of your conjectures potentially transformable into real principles of physics, if proven experimentally. I also thought about whether information processes somehow bind the parties involved together from time to time, leading them to interact together and thus create stronger bonds that require more bonding energy than would be needed without interaction. (As for example quarks do in a proton or neutron through gluons). I even went so far as to ask myself whether the mass - as Relativity teaches us - was not missing some attribute to be truly representative of the equivalent energy content and whether the Rienmann tensor (Ricci + Weyl) also took into account a binding IT contribution,  as well as a magnetic contribution if the mass has a magnetic/electric field that interacts and binds. I asked myself if it will ever be possible in the new physics to have a formulation of Total Energy, with many different components, in the manner of Bernoulli in hydraulics, in such a way that if in a process that moves A to B it is clear which of the various components of the Total Energy varies and how, leaving the Principle of Conservation of Energy intact. Maybe we could discover that some bonds can produce energy by extracting it from the unexpected (e.g. Zero-Point-Energy?).

Therefore, if I had the financial possibilities of a great philanthropist and benefactor of humanity, I would also finance your research to verify, through matter-antimatter annihilation, your theory on "The mass-energy-information equivalence principle", also to discover whether all the information in the universe can be stored in a mass that can be contained in a shopping bag and whether or not to do so we would have to consume a good part of all the humanly available energy.

Thank you Prof. Vopson for these works which I summarize below and which - with your permission -  I would like to put on my blog together with this letter available to those who are interested in the topic.

Kind Regards

Rocco Morelli

 

1.       THE MASS-ENERGY-INFORMATION EQUIVALENCE PRINCIPLE

AIP Advances 9, 095206 (2019); doi: 10.1063/1.5123794 – by Melvin M. Vopson -  University of Portsmouth, School of Mathematics and Physics, PO1 3QL Portsmouth, UK

https://pubs.aip.org/aip/adv/article/9/9/095206/1076232/The-mass-energy-information-equivalence-principle 

ABSTRACT

Landauer’s principle formulated in 1961 states that logical irreversibility implies physical irreversibility and demonstrated that information is physical. Here we formulate a new principle of mass-energy-information equivalence proposing that a bit of information is not just physical, as already demonstrated, but it has a finite and quantifiable mass while it stores information. In this framework, it is shown that the mass of a bit of information at room temperature (300K) is 3.19 × 10-38 Kg. To test the hypothesis we propose here an experiment, predicting that the mass of a data storage device would increase by a small amount when is full of digital information relative to its mass in erased state. For 1Tb device the estimated mass change is 2.5 × 10-25 Kg.

 

2.       THE INFORMATION CATASTROPHE

AIP Advances 10, 085014 (2020); doi: 10.1063/5.0019941 – by Melvin M. Vopson - School of Mathematics and Physics, University of Portsmouth, PO1 3QL Portsmouth, United Kingdom

https://pubs.aip.org/aip/adv/article/10/8/085014/990263/The-information-catastrophe

ABSTRACT

Currently, we produce 1021 digital bits of information annually on Earth. Assuming a 20% annual growth rate, we estimate that after 350 years from now, the number of bits produced will exceed the number of all atoms on Earth, 1050. After 300 years, the power required to sustain this digital production will exceed 18.5 × 1015 W, i.e., the total planetary power consumption today, and after 500 years from now, the digital content will account for more than half Earth’s mass, according to the mass-energy–information equivalence principle. Besides the existing global challenges such as climate, environment, population, food, health, energy, and security, our estimates point to another singular event for our planet, called information catastrophe.

 

3.       ESTIMATION OF THE INFORMATION CONTAINED IN THE VISIBLE MATTER OF THE UNIVERSE

AIP Advances 11, 105317 (2021); doi: 10.1063/5.0064475 – by Melvin M. Vopson-  University of Portsmouth, School of Mathematics and Physics, PO1 3QL Portsmouth, UK

https://pubs.aip.org/aip/adv/article/11/10/105317/661214/Estimation-of-the-information-contained-in-the

ABSTRACT

The information capacity of the universe has been a topic of great debate since the 1970s and continues to stimulate multiple branches of physics research. Here, we used Shannon’s information theory to estimate the amount of encoded information in all the visible matter in the universe. We achieved this by deriving a detailed formula estimating the total number of particles in the observable universe, known as the Eddington number, and by estimating the amount of information stored by each particle about itself. We determined that each particle in the observable universe contains 1.509 bits of information and there are 6 × 1080 bits of information stored in all the matter particles of the observable universe.

 

4.       EXPERIMENTAL PROTOCOL FOR TESTING THE MASS–ENERGY–INFORMATION EQUIVALENCE PRINCIPLE

AIP Advances 12, 035311 (2022); doi: 10.1063/5.0087175 – by Melvin M. Vopson -  University of Portsmouth, School of Mathematics and Physics, PO1 3QL Portsmouth, UK

 https://pubs.aip.org/aip/adv/article/12/3/035311/2819739/Experimental-protocol-for-testing-the-mass-energy

ABSTRACT

The mass–energy–information equivalence principle proposed in 2019 and the information content of the observable matter in the universe estimated in 2021 represent two important conjectures, called the information conjectures. Combining information theory and physical principles of thermodynamics, these theoretical proposals made specific predictions about the mass of information as well as the most probable information content per elementary particle. Here, we propose an experimental protocol that allows for empirical verification of the information conjectures by confirming the predicted information content of elementary particles. The experiment involves a matter–antimatter annihilation process. When an electron–positron annihilates, in addition to the two 511 keV gamma photons resulting from the conversion of their rest masses into energy, we predict that two additional low energy photons should be detected, resulting from their information content erasure. At room temperature, a positron–electron annihilation should produce two 50 μm wavelength infrared photons due to the information erasure. This experiment could, therefore, confirm both information conjectures and the existence of information as the fifth state of matter in the universe.

---------------------------------------Correspondence exchanged--------------------------------------

Dear Rocco,

I hope you don't mind addressing you by your first name, but if you do please accept my apologies. Also, please call me Melvin.

Thank you very much for your email and for sharing your interesting ideas about possible extrapolations and applications of my research.

I can confirm that most of the things you suggested are aligned with my own ideas, and this gives me the necessary support and confidence in this work. 

Please feel free to list on your blog anything you wish. 

As you said, these are "conjectures potentially transformable into real principles of physics, if proven experimentally."

However, I would like to share with you my most recent work, which indeed translates into a new "law of physics" and, unlike the mass-energy-information equivalence principle which requires experimental validation, this new work is already validated.

Here is the link to the article (free to download). I promise you, this one makes a really interesting reading.

https://doi.org/10.1063/5.0173278

Once again, many thanks for reaching out.

Yours,

Melvin

Dr. Melvin M. Vopson FHEA, FInstP, CPhys
Associate Professor of Physics and CEO of the Information Physics Institute

School of Mathematics & Physics
University of Portsmouth
Portsmouth  PO1 3HF

United Kingdom

 

5.               THE SECOND LAW OF INFODYNAMICS AND ITS IMPLICATIONS FOR THE  SIMULATED UNIVERSE HYPOTHESIS

AIP Advances 13, 105308 (2023); doi: 10.1063/5.0173278– by Melvin M. Vopson -  University of Portsmouth, School of Mathematics and Physics, PO1 3QL Portsmouth, UK

https://pubs.aip.org/aip/adv/article/13/10/105308/2915332/The-second-law-of-infodynamics-and-its

ABSTRACT

The simulation hypothesis is a philosophical theory, in which the entire universe and our objective reality are just simulated constructs. Despite the lack of evidence, this idea is gaining traction in scientific circles as well as in the entertainment industry. Recent scientific devel[1]opments in the field of information physics, such as the publication of the mass-energy-information equivalence principle, appear to support this possibility. In particular, the 2022 discovery of the second law of information dynamics (infodynamics) facilitates new and interesting research tools at the intersection between physics and information. In this article, we re-examine the second law of infodynamics and its applicability to digital information, genetic information, atomic physics, mathematical symmetries, and cosmology, and we provide scientific evidence that appears to underpin the simulated universe hypothesis.

-----------------------------------------------------------------------------------------------------------------

6. CONCLUSION

Let's hope that Carlo Cosmelli and Sapienza University of Rome, even on the basis of what has been indicated above, will be well disposed and inclined to activate a second course in Physics (II) for Philosophers which could contain these highly topical themes.


7. APPENDIX

Even if the blue dotted line will be the one along which human civilization could presumably move in the next two centuries, this still does not remain a reassuring prospect for future generations.





sabato 23 marzo 2024

L'ITALIA NON DIMENTICA IL SUO FILOSOFO PIÙ NOTO!

 «Al di là di ogni opzione confessionale o ideologica, Tommaso d’Aquino è stato senza dubbio il filosofo e teologo di maggior rilievo nella storia del nostro Paese, e certamente quello che ha esercitato la maggiore influenza al di fuori dei nostri confini – un impatto perfino superiore, in termini istituzionali, a quello di Dante, come attestano le tantissime strutture universitarie in tutto il mondo che portano tuttora il nome del maestro domenicano». Lo riportava un articolo di Pasquale Porro dal titolo «TOMMASO SOTTO TONO. L'ITALIA DIMENTICA IL SUO FILOSOFO PIÙ NOTO» pubblicato martedì 20 febbraio 2024 sul quotidiano cattolico Avvenire https://www.avvenire.it/opinioni/pagine/tommaso-sotto-tono-litalia-dimentica-il-suo-filosofo-pi-noto. Articolo che forse ha risvegliato qualche “torpore” intravisto altrove, ma non certo nel territorio aquinate e circondario locale,  che ha nutrito e nutre rispetto e devozione per il suo Santo, da sempre. Infatti, la memoria liturgica di San Tommaso d’Aquino, che come riporta il calendario cade il 28 gennaio ed è oggetto di celebrazione da parte della Chiesa Cattolica,  non ha impedito di celebrare (vedasi qui sotto le rispettive locandine dei due Comuni laziali) anche il 7 marzo scorso, sia nel Comune di Aquino che in quello della vicina Roccasecca, il 750-esimo anniversario della morte del grande Dottore della Chiesa, che avvenne nel convento di Fossanova (nel Lazio).


Locandine delle Celebrazioni nel Comune di Roccasecca

Locandina delle Celebrazioni nel Comune di Aquino

Occasioni in cui è stato da più parti ricordato che nel 2025 ricadrà 800-esimo anniversario della sua nascita. Nascita che in passato è stata motivo di una disputa popolare tra i cittadini di Aquino e quelli di Roccasecca che se  ne contendevano la con-cittadinanza; cosicché un’antica statua del Santo che era tenuta storicamente presso la Chiesa della Madonna della Libera ad Aquino fu trafugata nottetempo dai Roccaseccani. Si racconta ancora che da parte degli Aquinati  (forse memori di quel «ferocior ad bellandum» che distingueva tutti i Ciociari in epoca Romana!) si giunse ai forconi per riportare la statua di San Tommaso nella loro Chiesa.

Grande apprezzamento, successo di pubblico, affluito numeroso, e di critica mediatica, ha avuto la mostra iconografica organizzata e gestita da Camillo Marino, uomo di cultura, rinomato collezionista e antiquario locale, sempre attivo e partecipe in occasioni celebrative che riguardino il circondario locale e che è stato recentemente insignito dall’Accademia Internazionale Ora et Labora, del titolo di Accademico di Merito, proprio per le sue innumerevoli attività sociali e culturali. Sono stati esibiti il 65% dei reperti della sua personale collezione, alcuni dei quali settecenteschi e che la sua devozione al Santo porta ad incrementare con nuove, ricercate  e preziose acquisizioni di ogni provenienza. Materiale iconografico prezioso, non solo culturalmente, ospitato per l’occasione nella bella Sala Consiliare del Comune di Roccasecca, con ogni cura e dove sono intervenute autorità civili e religiose che si sono complimentate con Camillo Marino, anche per le informazioni fornite con competenza e precisione su ciascuno dei reperti esibiti.

                          Il Card. Semeraro ed il Vescovo Diocesano Antonazzo con Camillo Marino 

Il Presidente del Consiglio Provinciale Prof. Ing. Gianluca Quadrini  
insieme a colleghi ed amici intervenuti
Il Sindaco di Roccasecca Avv. Giuseppe Sacco con Camillo Marino, 
e con gli Aquinati Costanzo e Antonino 
della vecchia famiglia Conte di Aquino
Una giornata memorabile per contenuti, incontri e ricordi significativi

ALCUNI COMMENTI COLTI TRA GLI INTERVENUTI
1- Camillo Marino:  San Tommaso è di tutti, ed è così grande  che la disputa tra Aquino e Roccasecca sulla sua nascita è priva di senso, anche perchè c'è Gloria per Tutti!
2 - Costanzo Conte: questo piccolo paese, che non vedevo da tanto tempo, ha conservato la sua onorabilità e la sua facies cittadina. 
3 - Un anonimo (tra la folla) : Sulla Rocca ci sono le rovine del Castello dei Conti di Aquino. Forse era dove la nobile famiglia soggiornava in estate alla ricerca del fresco in collina e può darsi che proprio li San Tommaso sia stato concepito o sia nato?

P.S. Chissà se la recente letteratura con il suo avvincente thriller storico dal titolo "San Tommaso e l'ombra del Diavolo" riuscirà a dipanare i presunti misteri sulla morte oltre a quelli sulla nascita del Dottore Angelico? (vedi https://www.ilgiornale.it/news/san-tommaso-e-lombra-diavolo-2299333.html )










 


sabato 9 marzo 2024

Un aggiornamento su un sistema d'Intelligenza Artificiale (IA) disponibile in Rete: Siamo sicuri che è già "pronta" ?

 Argomento: Unità di misura ppm

 

             Copilot (di Microsoft Edge)

Il tuo AI Companion quotidiano

A Domanda

Risponde

 Tu

L'unità di misura parti per milione è riferita al peso o al volume ?


Copilot

L’unità di misura parti per milione (ppm) può riferirsi sia al peso che al volume. In generale, ppm è un’unità di misura adimensionale che indica un rapporto tra quantità misurate omogenee di un milione a uno.

Quando si parla di sostanze solide o liquide, ppm di solito si riferisce al peso, quindi 1 ppm equivale a 1 mg/kgPer esempio, se si misura la concentrazione di un inquinante nel suolo, ppm indicherà il peso dell’inquinante per unità di peso del suolo1.

Per i gas, si utilizza spesso ppmv (parti per milione in volume), che misura la concentrazione di un gas nell’aria come volume per volume, ad esempio 1 ppmv di CO2 in aria significa che in un milione di unità di volume di aria, una di queste è CO22.

In sintesi, ppm può essere utilizzato per indicare sia il peso che il volume, a seconda del contesto in cui viene applicato.

  

Tu

Mi riferisco alla tua precedente risposta e ti chiedo di spiegarmi come è possibile che pur variando il peso per unità di volume e il peso per unità di massa di ogni composto o elemento, tu dici che l'unità ppm si può riferire sia a peso che volume perchè è un rapporto? Non ci dovremmo aspettare che pur essendo un rapporto esso deve essere necessariamente diverso se preso in peso o in volume?

 

Copilot

La tua domanda è molto pertinente e tocca un punto fondamentale nella comprensione delle unità di misura come le ppm. La chiave per comprendere questa apparente contraddizione sta nel contesto in cui le ppm vengono utilizzate.

Le ppm, come hai giustamente osservato, sono un rapporto e quindi una misura adimensionale. Questo significa che le ppm indicano un numero di parti di una sostanza per un milione di parti della stessa unità di misura. Quando si parla di ppm in termini di peso (ppmw), si riferisce al peso di una sostanza per milione di parti di peso del composto o della miscela in cui è presente. Allo stesso modo, quando si parla di ppm in termini di volume (ppmv), si riferisce al volume di una sostanza per milione di parti di volume del composto o della miscela123.

La confusione può sorgere quando si considerano le proprietà fisiche dei diversi composti o elementi, come la densità, che influenzano il peso per unità di volume. Tuttavia, quando si utilizzano le ppm, si sta effettivamente normalizzando la misura in modo che sia indipendente da queste proprietà. In altre parole, 1 ppm di una sostanza in un liquido o in un gas rappresenta sempre una parte su un milione, indipendentemente dal peso o dal volume specifico di quella sostanza.

Per esempio, se si misura la concentrazione di un inquinante nell’aria in ppmv, si sta dicendo che per ogni milione di unità di volume di aria, c’è un’unità di volume dell’inquinante, indipendentemente dal peso di quell’inquinante. Analogamente, se si misura la concentrazione di un soluto in una soluzione in ppmw, si sta dicendo che per ogni milione di unità di peso della soluzione, c’è un’unità di peso del soluto, indipendentemente dal volume di quel soluto.

In conclusione, le ppm possono essere utilizzate sia per il peso che per il volume perché sono un modo per esprimere un rapporto che è indipendente dalle proprietà fisiche specifiche della sostanza in questione. Questo le rende uno strumento molto versatile e utile in molte applicazioni scientifiche e tecniche.

 

Tu

Quindi se si parla di ppm di CO2 nell'aria si devono necessariamente avere due numeri diversi: uno per ppmw ed uno per ppmv che non possono essere uguali! E' così?

 

Copilot

Esatto, quando si parla di ppm di CO2 nell’aria, i valori di ppmw (parti per milione in peso) e ppmv (parti per milione in volume) non sono necessariamente uguali a causa delle diverse proprietà fisiche dei gas.

Per esempio, la densità di un gas può variare in base alla temperatura e alla pressione, influenzando così il rapporto tra il peso e il volume. Di conseguenza, ppmw e ppmv possono fornire misure diverse.

Inoltre, per convertire ppmw in ppmv o viceversa, è necessario considerare la densità del gas e la densità dell’atmosfera totale, oltre ai pesi molecolari del gas e dell’atmosfera1.

In pratica, per la CO2 nell’aria, si utilizza più comunemente il valore ppmv, poiché è più rilevante per la misurazione della concentrazione di gas nell’atmosfera. Tuttavia, per applicazioni specifiche dove è necessario conoscere il peso esatto del gas, si potrebbe utilizzare ppmw, tenendo conto delle conversioni appropriate basate sulle proprietà fisiche del gas in questione.

 

Tu

Mi spieghi allora perchè nella tua prima risposta alla mia prima domanda su questo argomento hai affermato che una misura di ppm può riferirsi sia al peso che al volume, essendo un rapporto, senza aggiungere che ciò è valido solo se la misura è stata (o sarà) fatta in peso o in volume? Non ti sembra che la tua risposta possa essere considerato un errore, o quanto meno possa indurre in errore?

 

Copilot

Hai ragione, la mia risposta avrebbe dovuto essere più precisa. Quando ho affermato che le ppm possono riferirsi sia al peso che al volume, avrei dovuto chiarire che ciò dipende dal contesto specifico in cui vengono misurate e che le due misure non sono direttamente intercambiabili senza le dovute conversioni.

Le ppm sono un modo per esprimere una concentrazione molto bassa di qualcosa in un’altra sostanza. Quando si utilizzano le ppm, è importante specificare se si sta parlando di ppm in peso (ppmw) o in volume (ppmv), poiché i valori possono differire a seconda della densità dei materiali coinvolti.

Mi scuso per l’omissione e per qualsiasi confusione che possa aver causato. La precisione è fondamentale quando si discutono misure e unità di misura, e apprezzo che tu abbia sollevato questo punto. Grazie per avermi dato l’opportunità di chiarire.

 Conversazione avvenuta a Roma il 09/03/2024


OSSERVAZIONI

Senza dubbio l'IA, così com'è oggi, può essere di grande aiuto nello studio, nella ricerca, nella vita quotidiana. Ma l'accuratezza dei sistemi di IA, almeno quelli messi a disposizione del grande pubblico, non sembrano aver raggiunto gradi di affidabilità per assumere decisioni "acriticamente" senza feed-back" e senza la mediazione di una interfaccia "umana pensante". Lodevole è invece la disponibilità dell'IA a "rivedere le proprie posizioni" e a riconoscere manchevolezze, in definitiva a "correggersi", che appare essere molto superiore a quella "umana", o almeno a quella mediamente diffusa ai nostri giorni. 

mercoledì 21 febbraio 2024

Some considerations on investing in startups for the implementation of innovative ideas (in particular patents). [Alcune considerazioni sull’Investimento tramite Startup per l’implementazione di idee innovative (in particolare Brevetti)]

 Some considerations on investing in startups for the implementation of innovative ideas (in particular patents)

Comment to : The contribution of activity theory to modeling multi-actor decision-making: A focus on human capital investmentsSeptember 2022Frontiers in Psychology- DOI: 10.3389/fpsyg.2022.997062[1]

New ideas in every sector can generate innovation, but they usually carry risks, precisely because they have not been used in the past and there are no valid examples to evaluate them. But, new ideas are produced by human beings who develop them and propose them for practical socially useful application. Therefore it was rightly considered that the investment in Startups is essentially an investment which, as it expresses great trust in the idea and in the person who developed it for a purpose, can be assimilated to an investment in human resources (essentially attributable to the creator and only rarely to a few others associated with him, until the innovation is realized).

  The profile of the creator, thanks to today's technologies, can also be traced quite well for the implicit aspects (e.g. economic, patrimonial, cultural, scientific, psychological, social, regulatory, disciplinary, etc.). Certainly such a profile has value for the public or private investor, who is usually an organization and/or person with a high propensity for risk, capable of putting their assets and income at stake in order to see their capital profitably invested in the Startup and in the New Idea. But the public or private investor is also an all-round investment evaluator, very expert in the perception and appreciation of risk to limit it, taking into consideration - in the short, medium and long term - all the concrete aspects (tangible, measurable, evaluable) and also conceptual, psychological, meta-psychological and even meta-physical ones (therefore intangible, non-evaluable, non-measurable, elusive).

If we refer to the real case of innovative patents (except for the case of sale of the patented idea), where the existence of a patent already implies a certain and serious selection on the validity of the idea, experience in practice seems to indicate, however, that the final decision to invest or not in a Startup and in a New Idea is based on a discriminating point: that is, on the direct involvement of the creator and on the ability of the creator (individual or collective, structured in the legal forms of the Startup ) to put their capital (intellectual, patrimonial and income) at risk in order to see their New Idea realized. In practice, this is the real "price" that in general terms a creator must pay to obtain "credibility" in the eyes of the public or private investor. The higher this sort of "equity" of the creator (i.e. real risk capital), the higher the investor's propensity to share the risk with the creator, thus accepting an investment in the New Idea and the Startup result. All this implies the need for further analysis, and therefore possible research, on the concept of investment marginality with respect to the financial and income situation of the actual investor and of the creator proposing the investment. If, neglecting income, we refer only to available assets, and assume the following ratios:

Rinv= (Investor's share of the investment)/(Investor's assets);

rid = (Creator's share of the investment)/(Creator's assets);

considering that:

- the role of Investor is reserved for banks and financial companies with solid and broad capital capacity (therefore with Rinv << 1 usually small);

- while the Creator is usually individual and can be anyone, often a person with high human capital, creative, enterprising, but "common" in the sense of belonging to any social and economic stratum, and not necessarily with particular capital endowments;

it can be seen how the formation of sufficient "equity" to give credibility to attract investments in a new, but risky patent, is usually affected by a very high rid value, and often such that rid > 1. The situation thus becomes structural where:

Rinv << rid

The latter situation (with substantially investment marginality for the investor and anything but marginal for the Creator) necessarily leads to the assumption of debt risks by the Creator and therefore discouragement of innovation. In this way patents are easily sold, or become obsolete or abandoned without any attempt being made to explore their innovative value.

A situation with high entropy, and therefore waste of human and intellectual capital and also of capital in the broad sense, which occurs especially for those patents that find themselves in a liminal situation between basic experimentation and industrial experimentation, since they concern new ideas and processes to be experiment and therefore with high implicit financial risk.

A situation that makes new ideas and innovative proposals an almost exclusive area of the wealthy strata of our society and in view of a limitation and marginalization of the "middle class", it can take on the characteristics of "social exclusion" for some social parts equipped with intellectual capital, but not with economic-financial means.​

Finally, it is clear that the continuation of such a situation will allow innovation in an economy the more it is able to collectively assume the risk of innovation and the individual patented ideas that support it. Ultimately this brings to mind what N. Chomsky states in his essay on "Language and Politics", when he talks about the privatization of profits and the socialization of losses in a capitalist society.

 

(Versione Italiana)

Alcune considerazioni sull’Investimento tramite Startup per l’implementazione di idee innovative (in particolare Brevetti)

Commento a: Il contributo della teoria dell'attività alla modellazione del processo decisionale multi-attore: un focus sugli investimenti in capitale umanoSettembre 2022Frontiers in Psychology- DOI: 10.3389/fpsyg.2022.9970621

Le nuove idee in ogni settore possono essere generatrici di innovazione, ma sono solitamente portatrici di rischi, proprio perché non utilizzate in passato e non esistono esempi validi per valutarle. Ma, le nuove idee sono prodotte da esseri umani che le mettono a punto e le propongono per una pratica applicazione socialmente utile. Pertanto è stato giustamente considerato che l’investimento in Startup è sostanzialmente un investimento che, in quanto esprime grande fiducia nell’idea e in colui che l’ha messa a punto per uno scopo, può essere assimilata ad un investimento in risorse umane (sostanzialmente riconducibili all’ideatore e solo raramente a pochi altri insieme a lui associati, finquando l'innovazione non è realizzata).

 Il profilo dell’ideatore, grazie alle odierne tecnologie, può essere anche tracciato abbastanza bene per gli aspetti impliciti (per es. economici, patrimoniali,  culturali, scientifici, psicologici, sociali, normativi, disciplinari, etc.). Certamente un tale profilo ha valore per l’investitore pubblico o privato, che solitamente è organizzazione e/o persona con alta propensione al rischio, capace di mettere in gioco il proprio patrimonio ed il proprio reddito pur di vedere fruttare il proprio capitale investito nella Startup e nella Nuova Idea. Ma, l’investitore pubblico o privato è anche un valutatore dell’investimento a tutto campo, molto esperto nella percezione ed apprezzamento del rischio per limitarlo, prendendo in considerazione - nel breve, medio e nel lungo periodo – tutti gli aspetti concreti (tangibili, misurabili, valutabili) ed anche quelli concettuali, psicologici, meta-psicologici e addirittura meta-fisici (quindi intangibili, non valutabili, non misurabili, sfuggenti).

Se ci si riferisce al caso reale di brevetti innovativi (salvo il caso di vendita dell’idea brevettata), dove già l’esistenza di un brevetto implica una certa e seria selezione sulla validità dell’idea, l’esperienza nella pratica sembra indicare, però,  che la decisione finale di investire o  meno in una Startup e in una Nuova Idea, si giochi su un punto discriminante: ossia sul coinvolgimento diretto dell’ideatore e sulla capacità dell’ideatore (singolo o collettivo, strutturato nelle forme giuridiche della Startup) di mettere a rischio il proprio capitale (intellettuale, patrimoniale  e reddituale) pur di vedere la sua Nuova Idea realizzata. In pratica si tratta del vero “prezzo” che in termini generali un ideatore deve pagare per ottenere “credibilità” agli occhi dell’investitore pubblico o privato. Tanto più elevata è questa sorta di “equity dell’ideatore (ossia vero e proprio capitale di rischio) tanto più sarà elevata la  propensione dell’investitore a condividere il rischio con l’ideatore, accettando così un investimento sulla Nuova Idea e sulla Startup conseguente. Tutto ciò implica  la necessità di una ulteriore analisi, e quindi una possibile ricerca, sul concetto di marginalità dell’investimento rispetto alla situazione patrimoniale e reddituale sia dell’investitore vero e proprio. sia dell’ideatore proponente l’investimento. Se, trascurando il reddito ci si riferisce al solo patrimonio disponibile, e si assumono i seguenti rapporti:

Rinv= (Quota dell’investimento in capo all’Investitore)/(Patrimonio dell’Investitore);

rid = (Quota dell’investimento in capo all’Ideatore)/(Patrimonio dell’Ideatore);

considerando che:

-           il ruolo di Investitore è riservato a banche e società finanziarie con solida ed ampia capacità patrimoniale (quindi con Rinv << 1 solitamente piccolo);  

-          mentre invece l’Ideatore è solitamente individuale e può essere chiunque, spesso persona con elevato capitale umano, creativo, intraprendente, ma “comune” nel senso di appartenente a qualunque strato sociale ed economico, e non necessariamente con particolari dotazioni patrimoniali;

 si può rilevare come la formazione di una “equity” sufficiente a dare credibilità per attrarre investimenti su un nuovo, ma rischioso brevetto, è solitamente affetta da un valore rid  molto alto, e spesso tale che rid < 1. Diviene così strutturale la situazione in cui:

Rinv << rid

Quest’ultima situazione(con investimento sostanzialmente marginale per l’investitore e tutt’altro che marginale per l’Ideatore)  porta necessariamente all’assunzione di rischi di indebitamento da parte dell’ideatore e quindi di scoraggiamento all’innovazione. In tal modo i brevetti vengono facilmente ceduti, o diventano obsoleti oppure abbandonati senza che si sia tentato di sondarne il valore innovativo.

Una situazione ad alta entropia, e quindi spreco di capitale umano, intellettuale e anche di capitale in senso lato, che si verifica specie per quei brevetti che si trovano in situazione liminale tra sperimentazione di base e sperimentazione industriale, poiché riguardano idee e processi nuovi da sperimentare e quindi con alto rischio finanziario implicito.

Una situazione che fa delle nuove idee e delle proposte innovative un ambito quasi esclusivo di strati benestanti della nostra società e in vista di una limitazione e marginalizzazione della "classe media" può assumere i connotati di “esclusione sociale” per alcune parti sociali dotate di capitale intellettuale, ma non di mezzi economico-finanziari.

Infine, è evidente che il permanere di una tale situazione, permetterà l’innovazione ad un'economia quanto più essa sarà in grado di assumere collettivamente il rischio dell’innovazione e delle singole idee brevettate che la sostengono. In definitiva questo richiama alla mente ciò che afferma N. Chomsky nel suo saggio su “Linguaggio Politica”, allorché parla di privatizzazione dei profitti e socializzazione delle perdite in una società capitalistica.

sabato 20 gennaio 2024

Why does the stress strain curve in Abaqus of my concrete model look like this?A question posed (2024, Jan 11, ) by Hanif Hanif on ResearchGate

 







It is a stress-strain diagram. Let’s divide the diagram into 3 different zones: 1, 2, 3, each characterized by its own typical trend.

ZONE 1: Linear law between stress and strain (Hook’s Law). The slope of such a line is a measure of the elastic module of the material. If during this phase you stop applying the force, the preserved elasticity of the material brings it back to the original dimension from which you started (i.e. the origin of the axes). Elastic modulus, also known as Young's modulus, is a fundamental property of materials that measures their stiffness or resistance to elastic deformation under stress. This property is essential in engineering and materials science, as it determines a material's ability to support loads and maintain its shape. The area of each zone (kg x m) represent the necessary energy to deform the sample of (unknown) material under test.

ZONE 2: The law between stress and strain is no more linear.  Even stopping to apply the force, the original elasticity of the material is damaged and lost and it is impossible to bring back the material to its original dimension. Noticeable is the negative slope in this zone. The deformation continues with decreasing force up to a minimum and the slope changes sign again, due (presumably) to work hardening of the material.

ZONE 3: The minimum point reached can be considered the beginning of actual failure, characterized by large deformations with smaller forces, which again follow a law that is substantially linear here, but is not necessarily the case in all materials.

Observers rightly pointed out that there may be several reasons why the stress-strain curve of a concrete model in Abaqus may show a certain behavior. So that various elements to find an explanation should include: Material properties; Concrete model; Failure criteria; Loading conditions. 

In search of an explanation one might also think of an overlap in the proposed graph between load in action and reaction. But, as far as I can see (e.g. refer to the image below - Image source: https://caeassistant.com/blog/fiding-reaction-force-on-a-body / ) Abaqus distinguishes very well in the graphical results between action and reaction by presenting two separate graphs with different trends, especially in the case of dynamic loads.

In this case, however, the question was asked on a single graph without specifying whether it concerns active load (e.g. Zone 1) and reactive load (e.g. Zone 2 plus Zone 3) combined together, also excluding a part of reactive load until the start of the Zone 2 (All this trying to imagine a possible explanation). But it is not the case. So I am inclined to assume that the positive slope of Zone 3 is the result of work hardening, just as the specific literature mentions about it (search for: work hardening effect in unreinforced concrete). Anyhow, in case anyone has a different, specific explanation, I'd appreciate hearing about it.