報(bào)告日期:2018年5月31日
報(bào)告時(shí)間:11:00
報(bào) 告 人:張繼強(qiáng) 博士(北京航空航天大學(xué))
報(bào)告地點(diǎn):長安校區(qū) 物理學(xué)與信息技術(shù)學(xué)院六層學(xué)術(shù)報(bào)告廳(致知樓3623)
主辦單位:物理學(xué)與信息技術(shù)學(xué)院
報(bào)告摘要:
在復(fù)雜系統(tǒng)中通過自組織實(shí)現(xiàn)集群行為的涌現(xiàn)一直是眾多領(lǐng)域研究者關(guān)注的焦點(diǎn),。社會(huì)系統(tǒng)和生態(tài)系統(tǒng)中以個(gè)體間博弈的微觀作用方式自組織形成的宏觀現(xiàn)象廣泛存在,,合作的涌現(xiàn)、資源的配置等等,。強(qiáng)化學(xué)習(xí)(Reinforce Learning)是個(gè)體基于所觀測到的環(huán)境進(jìn)行決策,,進(jìn)而有效地實(shí)現(xiàn)其目的算法,。這使得該方法與傳統(tǒng)的博弈過程具備較好的契合點(diǎn)。在本工作中,,我們將Q-learning算法與22博弈相結(jié)合提出了新的博弈演化動(dòng)力學(xué)模型,。通過模擬結(jié)果,我們發(fā)現(xiàn)博弈參數(shù)在囚徒困境博弈下(PD)和雪堆博弈下(SD)對學(xué)習(xí)參數(shù)下表現(xiàn)出不同的響應(yīng)特性,。經(jīng)過模擬結(jié)果,,我們發(fā)現(xiàn)SD系統(tǒng)中合作比例呈現(xiàn)周期性演化的特征,而PD中無此特點(diǎn),。通過對動(dòng)力學(xué)過程的分析,,我們猜測產(chǎn)生這一特征的原因是兩種平衡點(diǎn)之間的競爭所引發(fā)的,并設(shè)計(jì)了部分實(shí)驗(yàn)對猜測進(jìn)行了佐證,。此外,,通過部分技巧,我們對系統(tǒng)的動(dòng)力學(xué)過程進(jìn)行了一定的數(shù)學(xué)分析,。這些分析有助于我們有效地對個(gè)體進(jìn)行分類,,并最終定性理解參數(shù)對周期特征的影響。最后,,我們在SD中發(fā)現(xiàn)了個(gè)體分類之后的部分統(tǒng)計(jì)學(xué)性質(zhì)只取決于收益矩陣的對稱性,。與傳統(tǒng)博弈模型中的相互模仿學(xué)習(xí)機(jī)制不同,Reinforce Learning傾向于探索式的內(nèi)省學(xué)習(xí)機(jī)制,。這種學(xué)習(xí)機(jī)制在生態(tài)系統(tǒng)和社會(huì)系統(tǒng)是廣泛存在的,,我們的研究思路和方法有助于為相似的機(jī)制博弈過程建立有效的模型和分析思路。同時(shí),,我們研究結(jié)果可能有助于一定程度上闡釋真實(shí)系統(tǒng)中尤其是生態(tài)系統(tǒng)中合作比例的周期性演化,。
報(bào)告人簡介:
張繼強(qiáng),2009年06月畢業(yè)于蘭州大學(xué)放射化學(xué)專業(yè),。2010年09月進(jìn)入蘭州大學(xué)物理科學(xué)與技術(shù)學(xué)院理論物理專業(yè)計(jì)算物理與復(fù)雜系統(tǒng)研究所從事復(fù)雜系統(tǒng)和復(fù)雜網(wǎng)絡(luò)的相關(guān)研究工作,,其主要研究方向?yàn)閺?fù)雜系統(tǒng)中的資源配置和博弈動(dòng)力學(xué)。2016年畢業(yè)后進(jìn)入北京計(jì)算科學(xué)研究中心湯雷翰教授課題組進(jìn)行生物數(shù)據(jù)挖掘以及代謝網(wǎng)絡(luò)方面的博士后研究工作,。2017年進(jìn)入北京航空航天大學(xué)大數(shù)據(jù)與腦機(jī)智能高精尖創(chuàng)新中心從事機(jī)器學(xué)習(xí),、知識圖譜和AI博弈動(dòng)力學(xué)等相關(guān)研究工作。其文章主要發(fā)表于Scientific Reports,, Physical Review E等國際期刊上,。