venerdì 19 marzo 2010

Che cosa abbiamo letto finora

Ormai è un mese e mezzo che il gruppo di lettura si riunisce! Potremmo provare a guardare un attimo il percorso fatto fin qui.
Siamo partiti da due autori (Good e Savage) che propongono la teoria classica del comportamento razionale nelle decisione di fronte all'incertezza. Tra i due autori ci sono, è vero, delle differenze su punti specifici. Ma il tipo di approccio rimane lo stesso: entrambi propongono il medesimo standard normativo di razionalità come massimizzazione dell'utilità prevista. Nella teoria proposta da Savage, in particolare, la massimizzazione dell'utilità prevista consegue dall'assunzione che le preferenze dell'agente siano (internamente) coerenti: potremmo parafrasare così, infatti, il significato generale dei postulati con cui Savage dimostra il suo teorema. L'assunzione della coerenza interna comporta molte conseguenze: particolarmente importante è il fatto che, nella valutazione di un'azione, i pesi delle utilità degli esiti debbano essere delle probabilità (Dutchbook). Questo è evidentemente un grosso argomento a favore dell'impiego delle probabilità per la rappresentazione dei gradi di convinzione.
L'articolo di Simon va in una direzione radicalmente diversa. Simon argomenta che i vari modelli di "ottimizzazione" della teoria economica classica non sono alla portata delle persone reali, con le loro capacità limitate. Un modello (normativo) più accessibile per persone reali in ambienti reali è quello del "satisficing": fissato un livello di aspirazione, l'agente valuta le varie opzioni e sceglie la prima che ecceda quel livello. Nel caso le opzioni soddisfacenti siano troppe o troppo poche, si prendono in considerazione altre alternative o si rivede il livello di aspirazione (ad esempio, al ribasso, se non c'è nemmeno un'opzione soddisfacente e l'agente è poco "persistente"). Abbiamo discusso a lungo l'articolo di Simon, perché in realtà dice ben più di questo!
Siamo passati poi agli esperimenti di Kahneman e Tversky, sul comportamento delle persone reali alle prese con scelte fra lotterie (= decisioni rischiose). Gli esperimenti mettono seriamente in dubbio che la teoria classica (à la Savage) possa essere descrittiva del comportamento di persone reali; il modello proposto da Kahneman e Tversky, Prospect Theory, sembrerebbe descrittivamente più efficace. Nel loro modello, gli agenti prima si rappresentano il problema attuando dei significativi "aggiustamenti" preliminari (editing), poi valutano e scelgono la lotteria che massimizza non l'utilità prevista, ma qualcosa che ci si avvicina molto: nel caso più generale, la somma dei valori soggettivi degli esiti, ciascuno pesato per una funzione della probabilità. Con delle particolari assunzioni su come sono fatti la funzione di valore e i "pesi di decisione" rispetto alle probabilità, Kahneman e Tversky rendono conto degli effetti osservati negli esperimenti.
Prospect Theory sembra quindi un modello descrittivamente efficace; tuttavia, non può avere valore normativo, perché predice delle preferenze inaccettabili (ad esempio, preferenze che violano l'invarianza per equivalenza logica).
Un'idea che, secondo me, sorge abbastanza spontaneamente, è se il "satisficing" di Simon non possa essere integrato con alcuni degli effetti rilevati da Prospect Theory. Penso all'effetto della certezza: se voglio comprarmi una macchina, mi sembra descrittivamente e normativamente accettabile scegliere la prima lotteria che garantisca una vincita sicura > 20.000 euro, anche se in ballo c'è anche una vincita di 500 miliardi al 10% di probabilità. Magari fisso un livello di aspirazione sulle vincite, e poi valuto le lotterie in ordine descrescente di probabilità della vincita maggiore (evidentemente sto "massimizzando").
Infine, mercoledì Silvia ha iniziato a presentarci due articoli di Sen, che spostano l'attenzione su problemi abbastanza diversi. Anzitutto, si tratta di problemi di scelta, e non di problemi di decisione: in un certo senso gli articoli indagano un livello "preliminare" rispetto a quello su cui ci siamo mossi finora. Ad esempio, finora abbiamo immaginato che gli agenti avessero delle preferenze complete e transitive sugli esiti delle loro azioni (o delle lotterie); questa è stata la base (ordinale) per costruire l'utilità (cardinale). Ci siamo concentrati, in qualche modo, su ciò che l'agente fa o deve fare, quand'è indeciso su quale di quegli esiti gli capiterà (e cerca di ottenere l'esito che preferisce!). Ma se facciamo un passo indietro, scopriamo che anche l'idea che l'agente abbia in partenza delle preferenze ordinate è problematica. Invece che pensare a relazioni di preferenza, pensiamo a funzioni di scelta: vediamo che cosa un agente sceglie su un insieme di alternative. Sen mette in evidenza dei fenomeni inaspettati, incompatibili con la teoria classica della scelta razionale. Mercoledì abbiamo iniziato, e la volta prossima continueremo, a cercare di rendere ragione di questi fenomeni.

mercoledì 10 marzo 2010

Gli esperimenti di KT

Abbiamo visto che tanto la critica, quanto la proposta di KT si basano su certi esperimenti da loro compiuti. Il tipo di esperimenti mi sembra importante. Il problema è: come si può controllare il comportamento decisionale degli agenti reali in condizioni di rischio?
Per "collaudare" sperimentalmente il modello classico, una prima idea potrebbe essere confrontare le previsioni classiche (= massimizzazione dell'utilità prevista) con dati reali sui comportamenti economici (e.g., dati di mercato). Si può fare? Sì e no. Al livello di precisione che noi desidereremmo, senz'altro no:

  1. i dati di mercato riguardano semmai casi di decisione in condizioni di incertezza, non di rischio (= le distribuzioni di probabilità sono ignote);
  2. l'incertezza è difficile da trattare; in particolare, è difficile valutare se il comportamento di un agente economico massimizza l'utilità prevista nel senso di Savage (perché per "estrapolare" le probabilità, in quanto gradi di convinzione, dalle decisioni di un agente, usiamo proprio elementi di quella teoria che vorremmo mettere alla prova);
  3. i dati di mercato sono "rumorosi"!

KT procedono allora a un tipo di esperimento molto diverso, simile a quelli usati talora in psicologia. E' un esperimento "di laboratorio": un campione ristretto (sempre meno di 95 persone) è sottoposto a dei questionari con problemi di decisione ipotetici. Il campione è composto di studenti e staff dell'università; i problemi proposti consistono nella scelta fra lotterie con esiti monetari e probabilità numeriche indicate.
L'uso di esiti monetari, naturalmente, serve a garantire qualcosa sulle valutazioni degli esiti: accettiamo senza difficoltà che chiunque preferisca 3000 euro a 10 euro. L'uso di probabilità numeriche, invece, può essere discutibile, come abbiamo visto la volta scorsa. Non è affatto detto che le probabilità segnalate in un questionario siano percepite come "gradi di convinzione", nel momento della decisione: ma se non lo sono, allora cade in parte la pretesa di catturare dati sul comportamento "reale" delle persone. (Forse basterebbe porre le probabilità come "uscita del tre su un dado a sei facce", o simili?)

Un'altra osservazione che avevamo fatto a suo tempo: perché gli esperimenti supportino completamente le idee di KT, occorre un'assunzione forte di omogeneità delle preferenze nei vari campioni. Cioè: se ricordate, alcuni problemi erano presentati in forma "sdoppiata" allo stesso campione, e ciò metteva evidentemente in luce delle incoerenze tra le preferenze, interpretate classicamente. Bene. Altre volte, però, i due problemi erano presentati a campioni diversi, e KT traevano le stesse conclusioni, per il fatto che la maggioranza dei rispondenti del primo campione e la maggioranza dei rispondenti del secondo campione mostravano preferenze di un certo tipo. Questo va bene se si assume che, comunque preso il campione, le preferenze manifestate dalla maggioranza siano quelle della "persona media" il cui comportamento vogliamo descrivere, e che le incoerenze tra le preferenze di maggioranze diverse riflettano incoerenze individuali. (E così, per giunta, non trasciniamo anche sugli individui le incoerenze delle preferenze aggregate?)

giovedì 4 marzo 2010

Prospect Theory: Il modello

Grazie (ancora!) ad Andrea per la sua illuminante presentazione della seconda parte di Prospect Theory. L'esposizione ha giustamente enfatizzato gli elementi che contraddistinguono l'aspetto "innovativo" di Prospect Theory rispetto al modello classico. Kahneman e Tverski (KT) propongono un modello di decisione che prevede due fasi fondamentali. Nella prima l'individuo costruise una rappresentazione personale del particolare problema di decisione, mentre nella seconda si proceda alla valutazione delle alternative. Dal punto di vista concettuale, la novità più rilevante riguarda la fase di editing del problema, di cui KT rendono conto, soprattutto a livello qualitativo. La fase di valutazione, invece, ricalca in modo sostanziale il paradigma di massimizzazione classico, a meno di sostiutuire l'utilità assoluta con una funzione di valore  (relativo alla "ricchezza" attuale del decisore) e di  attibuire determinati pesi alle probabilità delle lotterie rilevanti. 


La discussione ha messo in evidenza le questioni fondazionali riguardanti lo status epistemologico di Prospect Theory. 


In primo luogo risulta piuttosto chiaro il fatto che KT (e la letteratura successiva) non considerano la teoria in competizione rispetto alla teoria normativa classica. Anzi, la loro teoria descrittiva della decisione in condizioni di rischio, è progettata in modo da aderire il più possibile al paradigma della massimizzazione dell'utilità prevista.  In questo senso, quindi non coglie la proposta di Simon di sostituire il criterio di massimizzazione con uno (appropriato) di soddisfazione.

Se la sostituzione delle funzioni di utilità con quelle di valore non appare particolarmente problematica (dal punto di vista fondazionale, almeno),  i pesi che Prospect Theory prevede per le probabilità rimangono epistemologicamente oscuri. KT insistono sul fatto che non debbano essere prese per probabilità e abbiamo visto che nemmeno possiamo considerarle generalizzazioni "note" (come per esempio misure sub/super additive).

Tutti i bias  di cui  Prospect Theory cerca di rendere conto riguardano distribuzioni note di probabilità, o come si usa dire (da von Neumann-Morgerstern in poi) lotterie. Questa caratteristica fa di Prospect Theory un modello di decisioni in condizioni di rischio.  Un passo nella direzione della decisione in condizioni di incertezza è annunciato in Cumulative Prospect Theory, di cui sentiremo presto parlare!

domenica 28 febbraio 2010

Prospect Theory: Il problema

Grazie ad Andrea per la sua presentazione della prima parte dell'articolo in cui  Kahneman e Tversky mettono in evidenza i limiti della teoria classica della decisione razionale. Come Andrea ha sottolineato molto bene, KT rilevano attraverso evidenza empirica (non sempre metodologicamente ineccepibile) l'esistenza di tre fenomeni che sono inconsistenti con la teoria di Savage

  • Effetto della certezza (connesso a risk aversion)
  • Effetto della riflessione (connesso a risk seeking)
  • Isolamento
A questo punto (ma ancora dobbiamo leggere la metà "propositiva" dell'articolo) non è del tutto chiaro se le inconsistenze rilevate rispetto alla teoria di Savage portino verso un rifiuto della teoria normativa, oppure un suo aggiustamento guidato dall'evidenza. 

mercoledì 17 febbraio 2010

Simon (1955), A Behavioral Model of Rational Choice

Grazie a Giovanni per aver presentato l'articolo di Simon, A Behavioral Model of Rational Choice (1955), così ricco di spunti di riflessione! Nel proseguire on-line la nostra discussione, potremmo riprendere questi temi:
  1. Agente ed ambiente. A Simon interessa trovare un comportamento razionale per un agente reale in un certo ambiente reale: l'ambiente è rilevante per la definizione della razionalità! Giovanni ci ha parlato dell'importanza di quest'idea per l'Intelligenza Artificiale. Negli studi di bounded rationality, il tema è stato molto sviluppato da Gigerenzer, Todd e il gruppo di ricerca ABC. Sono particolarmente interessanti anche le riflessioni di Simon sul ruolo dell'agente nel modellare il problema, cioè sull'interazione tra agente e "dati ambientali": le riprenderemo nella discussione della settimana prossima, con Kahneman e Tversky.
  2. Decisione collettiva e individui come aggregati. Simon propone un modello di comportamento razionale anche per gruppi di individui, o per individui le cui preferenze siano un aggregato di ordinamenti di preferenza diversi. Penso che ci ritorneremo.
  3. Comportamento persistente. Simon chiama persistente un agente che cerchi di considerare nuove alternative, piuttosto che abbassare il livello di soddisfazione, nel quadro dinamico di un problema di decisione. Silvia ha accennato agli sviluppi di quest'idea nel libro di Bratman sulle intenzioni: sarei curioso di saperne qualcosa anch'io!
  4. Bounded vs. unbounded rationality. Simon suggerisce di pensare a più livelli di razionalità, articolati secondo le capacità e le informazioni di agenti reali in ambienti reali. Questi livelli sono "approssimazioni" gestibili del comportamento razionale in senso classico, che resta il modello ideale di riferimento: in particolare, le opzioni ottimali sono sempre incluse tra le opzioni soddisfacenti. Prospect Theory porta evidenza contro questa conclusione.
  5. Normativo vs. descrittivo. Simon intende proporre modelli sia descrittivi, sia normativi, ma adattati ad agenti reali in ambienti reali: l'esempio della vendita della casa, nell'appendice all'articolo, mi sembra molto istruttivo. La prossima volta cercheremo di confrontare quest'approccio con quello di Kahneman e Tversky.

mercoledì 10 febbraio 2010

Il teorema di Savage

Grazie ad Andrea per la sua presentazione del Teorema di Rappresentazione di Savage, e grazie a tutti per l'interessante discussione. E' emerso in modo abbastanza chiaro che il Teorema è analizzabile da almeno due punti di vista.
  1. Giustificazione della probabilità come misura di incertezza
  2. Massimizzazione dell'utilità prevista come criterio di razionalità
Personalmente credo che il contributo maggiore del risultato sia nel suo aspetto di giustificazione della probabilità come misura (e quindi calcolo) dell'incertezza (e quindi dei gradi di convinzione) di un agente. In questo si aggiunge al Teorema (Dutch Book) di de Finetti e a quello di Lindley (sulle regole di penalizzazione).

Riguardo alla massimizzazione dell'utilità prevista, credo che sia inevitabile prenderla come criterio di razionalità, ma non nella forma richiesta da Savage per la dimostrazione del suo teorema. Credo che non ci sia bisogno di convincere nessuno, a questo punto, del fatto che un approccio di Bounded Rationality, nelle forme che vedremo, è fondamentale per dare alla teoria un (minimo) significato descrittivo e predittivo.

Nella discussione che ha accompagnato la presentazione di Andrea, sono stati sollevati alcuni punti molto interessanti sulle limitazioni metodologiche (impossibilità di falsificare la teoria, small worlds) e pratiche (eterogeneità) della teoria di Savage. Spero che vogliate riprendere ed espandere questi punti, magari indicando alcuni riferimenti bibliografici.  Sarebbe anche storicamente molto interessante riuscire a ripercorrere "la fortuna" di Savage tra gli statistici. Se qualcuno avesse informazioni a proposito, si faccia avanti!

lunedì 8 febbraio 2010

The Logic of Decision

Prometto che non continuerò a pubblicare post con lunghe citazioni, ma queste due mi sono state suggerite da una chiacchierata con Hykel: riguardano i rapporti decisioni - logica. Già l'altro testo di Knight ne parlava. Se leggete la seconda, tenete presente che è del 1954 e mi sembra che dia tuttora da riflettere parecchio!



Kenneth J. Arrow, "Is Bounded Rationality Unboundedly Rational?", in Mie Augier and James G. March, eds., Models of a Man. Essays in Memory of Herbert A. Simon, MIT Press, 2004:
Rationality, whether substantive as in neoclassical economics or procedural along the lines stressed by Simon, is a process of logical inference (every computation is such a process). It proceeds from knowledge of a problem to knowledge of an answer to it (in the sense of a method of handling it). It raises questions such as what is meant by "knowing" something and in what sense can we infer or otherwise proceed from knowing some propositions to knowing others.


Leonard J. Savage, The Foundations of Statistics, 2nd revised edition, Dover Publications, 1972, pp. 6-7:

Reasoning is commonly associated with logic, but it is obvious, as many have pointed out, that the implications of what is ordinarily called logic are meager indeed when uncertainty is to be faced. It has therefore often been asked whether logic cannot be extended, by principles as acceptable as those of logic itself, to bear more fully on uncertainty. [...]


First, since logic is concerned with implications among propositions, many have thought it natural to extend logic by setting up criteria for the extent to which one proposition tends to imply, or provide evidence for, another. It seems to me obvious, however, that what is ultimately wanted is criteria for deciding among possible courses of action; and, therefore, generalization of the relation of implication seems at best a roundabout method of attack. It must be admitted that logic itself does lead to some criteria for decision, because what is implied by a proposition known to be true is in turn true and sometimes relevant to making a decision. Should some notion of partial implication be demonstrably even better articulated with decision than is implication itself, that would be excellent; but how is such a notion to be sought except by explicitly studying decision? [...]


Second, it is appealing to suppose that, if two individuals in the same situation, having the same tastes and supplied with the same information, act reasonably, they will act in the same way. Such agreement, belief in which amounts to a necessary (as opposed to a personalistic) view of probability, is certainly worth looking for. Personally, I believe that it does not correspond even roughly to reality, but, having at the moment no strong argument behind my pessimism on this point, I do not insist on it. But I do insist that, until the contrary be demonstrated, we must be prepared to find reasoning inadequate to bring about such complete agreement. In particular, the extensions of logic to be adduced in this book will not bring about complete agreement [...]

mercoledì 3 febbraio 2010

Knight su probabilità e incertezza

Cito diffusamente un testo di Frank H. Knight del 1921, che mi sembra molto interessante (per quello che c'è già, per quello che non c'è ancora): è forse un buon testimone della situazione prima di De Finetti e Savage.

The real logic or psychology of ordinary conduct is rather a neglected branch of inquiry, logicians having devoted their attention more to the structure of demonstrative reasoning. This is in a way inevitable, since the processes of intuition or judgement, being unconscious, are inaccessible to study. Such attention as has been given to the problem of intuitive estimation has been connected with and largely vitiated by confusion with the logic of probability. A brief examination of the probability judgement shows it to fall into two types, which we called the a priori and the statistical. In the latter type of situation, we cannot, as we can in the former, calculate the true probability from external data, but must derive it from an inductive study of a large group of cases. This limitation involves a serious logical weakness, since at best statistics give but a probability as to what the true probability is.
[...]
As we have repeatedly pointed out, an uncertainty which can by any method be reduced to an objective, quantitatively determinate probability, can be reduced to complete certainty by grouping cases. The business world has evolved several organization devices for effectuating this consolidation, with the result that when the technique of business organization is fairly developed, measurable uncertainties do not introduce into business any uncertainty whatever. Later in our study we shall glance hurriedly at some of these organization expedients, which are the only economic effect of uncertainty in the probability sense; but the present and more important task is to follow out the consequences of that higher form of uncertainty not susceptible to measurement and hence to elimination. It is this true uncertainty which by preventing the theoretically perfect outworking of the tendencies of competition gives the characteristic form of "enterprise" to economic organization as a whole and accounts for the peculiar income of the entrepreneur.

(Frank H. Knight, Risk, Uncertainty, and Profit, University of Chicago Press, Chicago-London, 1985, pp. 231-232)

I. Good, Rational Decisions

Grazie a Martina per la sua presentazione di questo interessantissimo articolo! Credo che ci siano molti spunti su cui possiamo riflettere. Elenco qui quelli che mi sembrano i più interessanti:
  1. Utilità vs. probabilità
  2. Regole di penalizzazione  
  3. Risk / uncertainty - Bounded rationality 
  4. "Gradi di convinzione oggettivi" 
1 Utilità vs. probabilità
Non credo di aver colto a pieno la motivazione che ha spinto Good a tentare (in modo che credo sia apparso a tutti decisamente fallimentare) di "sottrarre l'utilità" dalla teoria della probabilità:
“The plan which appeals to me is to develop the theory of probability without much reference to utilities, and then adjoin the principle of rational behaviour in order to obtain a theory of rational behaviour.”
Chiaramente il "piano" di Good ha più il carattere di un'allusione che di un vero e proprio programma scientifico. Come giustamente sottolineava Martina, Good sembra distinguere tra "ragionamento epistemico" e "ragionamento pratico". Su questa distinzione esiste una letteratura enorme, parzialmente riassunta nei primi capitolo di  Hans Rott,  Change, choice and inference: A study of belief revision and. nonmonotonic reasoning. Oxford, 2001. Personalmente non credo che postulare una distinzione così sfuggente sia particolarmente  vantaggioso.

Il fatto interessante è che il dibattito sulla "liberazione" della probabilità dai criteri decisionali  è ancora oggi molto acceso. Un ottimo articolo sull'argomento è D'Agostino, Sinigalia, Epistemic Accuracy and Subjective Probability.

3 Regole di Penalizzazione
De Finetti, specialmente nell'ultima fase del suo lavoro, riteneva che le "regole di penalizzazione appropriate" fossero, ancora più dello schema di scommesse, l'unica definizione ragionevole di probabilità. Con questo intendeva dire che è soltanto attraverso l'uso di queste regole (tra cui, in particolare, quella dello scarto quadratico medio) che si può "estrarre" la probabilità sincera da un individuo. In realtà, come dimostra nel capitolo 3 di Teoria delle Probabilità nel 1970, il criterio di coerenza dato dal Dutch Book è equivalente alla regola di Brier: entrambi determinano "probabilità coerenti". L'articolo di Lindley, D. V. (1982). Scoring Rules and the Inevitability of Probability. International Statistical Review, 50(1), 1-11. fornisce un quadro completo del rapporto tra probabilità soggettiva e regole di penalizzazione. Altri articoli interessanti e matematicamente non banali! sull'argomento sono

Savage, L. J. (1971). Elicitation of Personal Probabilities and Expectations. Journal of the American Statistical Association, 66(336), 783- 801.

Dawid, A. (2007). The geometry of proper scoring rules. Annals of the Institute of Statistical Mathematics, 59(1), 77–93. Springer.

Schervish, M. J., Seidenfeld, T., & Kadane, J. B. (2009). Proper Scoring Rules, Dominated Forecasts, and Coherence. Decision Analysis, 6(4), 202-221.

Se qualcuno volesse "leggerli" possiamo metterli nella lista per il secondo giro!

3. Risk vs  uncertainty - Bounded Rationality
L'impostazione "pragmatica" del lavoro di Good lo porta in modo molto naturale a formulare alcune intuizioni che saranno fondamentali negli studi di "bounded rationality" di cui sentiremo presto parlare. E' evidente che il costo della decisione debba entrare in qualche modo nell'equazione del comportamento razionale, ma non credo che prima di Simon questo sia stato discusso a livello teorico. C'è però un regresso all'infinito a cui forse bisogna prestare un po' di attenzione. Se usiamo lo stesso criterio per decidere e per decidere come decidere, non c'è nessun motivo per non richiedere che esista un altro meccanismo di decisione per decidere quante risorse dobbiamo allocare al problema di decidere il costo della decisione di partenza (e così via).

Ci torneremo sicuramente dopo Savage e Simon!

4. Gradi di convinzione oggettivi
La frase
“I define the theory of probability as the logic of degrees of belief”
trova, storicamente, tantissimo consenso, anche se ammette tantissime declinazioni. L'idea di un grado di convinzione indipendente dall'individuo è chiaramente un po' bizzarro. Se però ci disinteressiamo della correttezza filologica, si tratta di un tema assolutamente attuale. Jon Williamson ha fatto e sta facendo un sacco di lavoro fondazionale interessantissimo su quello che chiama  Objective Bayesianism. L'idea, che per certi aspetti torna indietro a Keynes e per altri a Carnap,  consiste nel pensare che il soggettivismo di de Finetti sia in qualche modo troppo "permissivo". Se è vero che la probabilità è soggettiva (bayesiana, in questo senso) è anche vero che possiamo pensare a principi che una volta formulati ci aiutino a escludere, tra le tante distribuzioni coerenti con i "dati", quelle che in qualche modo riconosciamo come "meno sensate" delle altre. Poiché questi sono principi di "buon senso" è ragionevole pensare che portino a un consenso intersoggettivo. La base di questi principi è costituita da varie versioni del principio di indifferenza (o simmetria) . Due libri che prendono (versioni molto diverse di) questa idea sul serio, attraverso il principio di massima entropia sono:

Paris, J. B. (1994). The uncertain reasoner's companion: A mathematical perspective. Cambridge University Press.


Jaynes, E. (2003). Probability theory: the logic of science. Cambridge University Press


Per una lettura accessibile si può vedere


Paris, J.B. (1999). Common sense and maxiumum entropy. Synthese, vol.117, pp75-93.

Benvenute, benvenuti

Benvenute tutte, benvenuti tutti,

questo blog serve a prolungare le discussioni del gruppo di lettura sulla decisione razionale, che si riunisce il mercoledì pomeriggio, ore 14:00-16:00, presso l'aula Contini della Scuola Normale di Pisa (http://homepage.sns.it/hosni/lori/readings/decision.php). Tutti gli interessati sono invitati a pubblicare interventi, domande, commenti riguardo ai testi e ai temi del gruppo di lettura; possiamo anche cercare insieme di tenere aggiornato il blog con le slides utilizzate nelle presentazioni, e con tutto il materiale che ci sembrerà opportuno.
La creazione di una pagina dedicata, indipendente dal sito del LORI, serve da incoraggiamento a tenere un tono libero ed informale negli interventi.
Vi aspetto, fatevi sentire!

andrea