User talk:Xsvaf02

'''

Multiagentní simulace ne/platících cestujících MHD skrze kostru PPGwP
'''

// Zkratky

ČP - Černý pasažér

PP - Platící pasažér

MHD - Městská hromadná doprava

PPG(wp) - Public Good Game (with Punishment)

//

Popis struktury modelu

Agenti budou "hrát" modifikaci PGGwP aplikovanou na problém černých pasažérů. Návaznost PGGwP na reálnou situaci ČP v MHD vidím následovnou:
 * Jedna se o veřejnou 'službu', kterou využívají všichni (platící i neplatící) a všichni z ní mají stejný užitek. Tato vlastnost je obdobná v laboratorní hře i v realitě.
 * Výplata z PGG se dá ve realitě chápat jako získání užitku z využité služby (všichni mají z použití MHD stejný užitek - přesun z bodu A do bodu B v určitém čase a v určité kvalitě). Poníženi užitku(výplaty) při nárůstu počtu ČP se dá chápat jako zpomaleni dopravy (přeplněné MHD, více kontrol revizory) nebo zhoršení kvality dopravy (nejsou peníze na údržbu vozů).
 * Koeficient násobení veřejného konta bude nastaven jako konstanta 2. Agenti v modelu nejednají za primárním účelem maximalizovat zisk a navíc je rozhodnutí o placení pouze binární (zaplatí/nezaplatí), nelze tedy agenty motivovat k vyšším příspěvkům. Hodnota majetku je zde pouze pro účely porovnávání strategií a efektivity nastaví simulace. Koeficient je tedy potřeba mít > 1, aby mohli být zisky kladné a větší koeficienty pouze snižují škody způsobené ČP. Při množství agentů v simulaci je nežádoucí, jelikož by nebyl jejich nárůst tak dobře vidět v grafech.
 * Trestáni je v simulaci placeno agenty - v realitě tento vztah nejde přímo vidět. Můžeme ho ovšem chápat jako ochotu agentů snížit svůj užitek za účelem zvýšení šance na potrestání ČP. Majetek agentu ze kterého se 'platí' tresty koneckonců nejsou jen peníze, ale i užitek získaný používáním MHD - např. časová úspora nebo pohodlí - investice do trestání může být brána jako ochota agentů podstoupit vice kontrol revizorem.

Předpoklady


 * Budu uvažovat o MHD v Praze. Čistě z důvodů nedostupnějším informacím.
 * Data o chování ČP a informací pro rozhodovací výpočty budu čerpat zejména z prací 123.

Charakteristiky agentů:
 * Agenti můžou nabýt dvou stavů - CP a PP. Můžou mezi nimi přecházet.


 * Rozhodnutí agentů o tom, zda budou či nebudou CP, bude ovlivněno:
 * stavem z minulého kola,
 * chováním ostatních agentů v tomto kole (čím více ČP ve hře, tím spíše se agent rozhodne být taky ČP),
 * cenou jízdenky a velikostí trestu (oboje jsou "veřejné" informace)
 * zaznamenanou aktivitou revizora (čím více kontrol ve svém okolí agent zaznamenal, tím spíše bude PP)
 * vlastní zkušeností s podváděním z minulého kola (jestliže agent [úspěšně podváděl, bude spíše podvádět znova)
 * šancí na dopadení revizorem


 * Rozhodnutí agentů o tom, zda budou či nebudou trestat, bude ovlivněno:
 * chováním ostatních agentů v tomto kole (čím více ČP ve hře, tím spíše se agent rozhodne trestat - pakliže už je sám ČP, bude jen málo ochotný trestat)
 * stavem z minulého kola
 * tolerancí k ČP
 * vlastním podváděním (černí pasažéři netrestají, možnost antisociálního trestání neexistuje)


 * Agent Revizora (pomocný agent, který realizuje trestání) má následující možná nastavení:
 * bez paměti - kontroluje agenty na náhodném umístění
 * s přesnou pamětí - udržuje si v paměti ČP nalezené v minulém kole a kontroluje přednostně tyto agenty
 * s nepřesnou pamětí - udržuje si v paměti ČP nalezené v minulém kole, ale kontroluje přednostně oblasti, ve kterých se nalezení ČP vyskytovali. V tomto módu lze nastavit jak velká oblast okolo nalezeného ČP se bude kontrolovat (nepřesnost paměti) a jak důkladně kontrola proběhne (kolik bude kontrol v jedné oblasti)

Cílem práce je porovnat takový model s realitou, zjistit slabá/silná místa takového modelu, zanalyzovat chování agentů za různých nastavení a ověřit aplikovatelnost těchto zjištění zpět do reality.