公海(555000a·China)会员中心-Official website

首页


主题:Deep Reinforcement Learning for Quantitative Trading (强化学习用于量化交易)

主讲人:南洋理工大学校长讲席教授/人工智能系主任 安波

主持人:555000a公海会员中心教授/副院长 杨新

时间:6月17日 10:00—11:00

地点:柳林校区经世楼D座二楼新财经综合实验室

主办单位:555000a公海会员中心 科研处

主讲人简介:

安波是新加坡南洋理工大学校长讲席教授,人工智能系主任,南洋理工大学人工智能研究院联席院长,于2011年在美国麻省大学Amherst分校获计算机科学博士学位。主要研究领域包括人工智能、多智能体系统、算法博弈论、强化学习、及优化。有150余篇论文发表在人工智能领域的国际顶级会议AAMAS, IJCAI, AAAI, ICLR, NeurIPS, ICML, AISTATS, ICAPS, KDD, UAI, EC, WWW以及著名学术期刊JAAMAS和AIJ。曾获2010 IFAAMAS杰出博士论文奖、2011年美国海岸警卫队的卓越运营奖、2012 AAMAS最佳应用论文奖、2016年IAAI创新应用论文奖,2020 DAI最佳论文奖,2012年美国运筹学和管理学研究协会(INFORMS)Daniel H. Wagner杰出运筹学应用奖,2018年南洋青年研究奖、以及2022年南洋研究奖等荣誉。受邀在2017年IJCAI上做Early Career Spotlight talk。他曾获得2017年微软合作AI挑战赛的冠军。并曾入选2018年度IEEE Intelligent Systems的AI’s 10 to Watch。他是AIJ、 JAAMAS、 IEEE Intelligent Systems、ACM TIST 和ACM TAAS的副主编及JAIR编委会成员。担任过AAMAS’20的程序委员会主席和AAMAS’23会议主席。当选为国际智能体及多智能体系统协会理事会成员、AAAI高级会员及ACM杰出科学家。他将担任IJCAI’27的程序委员会主席。

主讲内容:

In the last decade, we have witnessed a significant development of AI-powered quantitative trading (QT), due to its instant and accurate order execution, and capability of analyzing and processing large amount of data related to the financial market. Traditional AI-powered QT methods discover trading opportunities based on either heuristic rules or financial prediction. However, due to the high volatility and noisy nature of financial market, their performance is not stable and highly reply on the market condition. Recently, reinforcement learning (RL) becomes an appealing approach for QT tasks owing to its stellar performance on solving complex decision-making problems. This talk will discuss some recent research progress in RL for QT and future directions. More information is at http://trademaster.ai/ and https://github.com/TradeMaster-NTU/TradeMaster.

在过去的十年中,我们见证了以人工智能为驱动的量化交易(QT)的显著发展,这得益于其快速且准确的交易执行能力,以及分析和处理海量金融市场数据的能力。传统的人工智能驱动的QT方法基于启发式规则或金融预测来发现交易机会。然而,由于金融市场的高波动性和噪声性,这些方法的性能并不稳定并且它们高度依赖于市场条件。最近,强化学习(RL)因其在解决复杂决策问题上的卓越表现而成为在解决QT任务上的一个极具吸引力的方法。本次报告将讨论RL在QT方面的一些最新研究进展和未来方向。


XML 地图