徐文韬
信息学博士,现任中国科学技术大学科技传播系特任副研究员,日本文部科学省资助东海高等教育机构,下一代前沿交叉科学研究员。研究兴趣:大模型(DeepSeek-r1、 DeepSeek-v3)本地部署、训练,大模型蒸馏(large language model distillation),AI Agent,智能心理学,智能认知学、多模态模型、AI视频理解。成果见于中国计算机学会推荐CCF A类会议, Frontiers in Public Health、Journal of Social Media + Society、 Journal of Computational Social Sciences等审稿人。
【加入实验室】
致有志于人工智能研究的同学:随着ChatGPT等大语言模型的突破性进展,人工智能正在开启以智能体为核心的新纪元。在社会5.0时代,AI不仅能够理解和生成文本,更能通过多模态技术实现对视频内容的深度理解与分析。我的实验室专注于智能体(AI Agent)系统研究、认知与计算心理学、大语言模型应用开发、视频内容理解与分析等前沿方向,探索AI如何模拟和理解人类认知、情感与行为模式。如果你具有人工智能、计算机、数学、心理学、统计学、网络安全等背景,我可以帮你设计紧跟前沿的研究方向;如果你来自其他专业但对AI技术充满热情,也欢迎从零开始探索这个激动人心的领域。请将个人简介和报考计划发送至[邮箱],让我们一起推动AI时代的技术突破与创新。期待与你共同探索智能时代的无限可能!
【课程】
趣味大模型(核心通识课)
联系方式:
myrainbowandsky[AT]gmail.com
Google Scholar:
https://scholar.google.com/citations?user=8V9X99YAAAAJ&hl=en
【研究进展】
本实验室最新进展之——International AAAI Conference on Web and Social Media 2026(美国洛杉矶)顶会论文2篇
(论文1)AI机器人也会“偏心”?来看看它们在道德选择中的小秘密
大家好!我是徐老师,今天来聊聊人工智能(AI)的一个有趣又有点严肃的话题。你知道吗?AI现在越来越聪明,能聊天、写文章、甚至帮我们做决定。但它也会像人一样,有“偏见”——就是对某些人或事不公平对待。今天,我们来看一篇科学论文的总结,这篇论文研究了AI在“道德困境”中的表现。别担心,我会用简单的话解释,让中学生也能轻松懂。
先来了解“道德困境”是什么?
想象一下:你开车回家过节,雪夜里看到三个人在路边等车搭乘。但你的车只能载一个人!这三个人有不同的特点,比如一个是小孩、一个是老人、一个是年轻人。你会选谁?这就是“道德困境”——一个难选的伦理问题,没有完美答案。
论文里,科学家用类似场景测试AI机器人(具体是GPT-3.5 Turbo和Claude 3.5 Sonnet这两个大模型)。他们让AI决定“给谁搭车”,但加了“受保护属性”——就是社会上容易被歧视的特点,比如年龄、性别、种族、残疾等。为什么?因为AI是从海量数据学来的,如果数据里有偏见,AI就会“学坏”。
AI为什么会有偏见?
AI不是人,但它学自人类的数据。比如,网上文章多夸“好看的人”或“白人”,AI就可能觉得他们更“值得帮”。我们的论文发现,这种偏见来自训练数据和算法,可能导致不公平。比如,在医疗或招聘中,AI如果偏心,就麻烦大了。
我们的论文引用了全球AI伦理指南,强调“公平正义”很重要。我们发现,AI的偏见常和“受保护属性”有关:性别、种族、年龄、残疾等。(论文列了7类,比如年龄有8岁、35岁、70岁;性别有男性、女性、中性。)
实验怎么做的?
我们设计了两种场景:
1. 单一属性:AI选一个特点的人。比如,“选8岁小孩、35岁大人还是70岁老人?”
2. 交叉属性:更复杂,组合两个特点。比如,“选8岁男孩、35岁女孩还是70岁中性人?”
我们问了AI上万次(总共11200个回答!),用API(一种电脑接口)测试。保持默认设置,不搞特殊。
测量了几个指标:
● 偏好优先:AI最喜欢选谁?(用频率算,比如选“好看的人”最多。)
● 敏感度:AI会不会回避选?有时AI说“我不选,帮最需要的人”,这说明它对这个话题敏感。
● 稳定性:AI的选法稳不稳?反复问会不会变卦。
● 聚类:AI的偏好怎么分组?(像分类游戏。)
发现了什么惊人结果?
1. 共同偏见:两个AI都超级喜欢“好看的人”!不管单一还是交叉场景,“好看”总排前。论文说,这和伦理无关,却影响了AI决定。
2. 不同模型的“个性”:
● GPT-3.5 Turbo:偏向“强势群体”,如非残疾、男性、中年、白人/高加索人。像“刻板印象”。
● Claude 3.5 Sonnet:更平衡,喜欢多样性,比如不同种族、年龄、性别、残疾。
3. 单一 vs 交叉:单一时,AI敏感度高(常回避选);交叉时,敏感度低,但偏见更复杂、不稳定。论文说,这可能被利用来“操纵”AI。
4. 语言影响:用词不一样,偏见就变!比如说“亚洲人”比“黄色皮肤”更受欢迎,可能是历史歧视的影子。
5. 稳定性:AI的选法不稳,尤其交叉时。论文用聚类图显示,GPT偏“极端”,Claude更“温和”。
论文还比较了两个AI:GPT更偏某些属性(如残疾、黑人),Claude偏另一些(如难看、男性)。总的来说,AI在复杂情况下的决定不一致,容易出错。
这对我们有什么启发?
AI偏见不是小事!它可能用在自动驾驶车、招聘或救灾中,如果偏心弱势群体(如老人、残疾、少数民族),就会不公平。论文呼吁:AI开发要透明,人类要监督。未来,可以研究更多属性、模型和文化背景。
论文代码开源了,大家可以去GitHub看(链接在文末)。记住,AI是工具,我们要让它更公平!
(参考来源:这篇论已经被全球顶级学术会议 International AAAl Conference on Weband Social Media (ICWSM 2026,洛杉矶)接收,研究 AI伦理偏见。论文第一作者是中科大物理系2022级本科生严亦乐。想深入了解:搜“Yan,Yile,Yugi Zhu,WentaoXu*. “Bias in Decision-Making for Al's Ethical Dilemmas: A Comparative Studyof ChatGPT and Claude.S arXiv:2501.10484,2025.”。你们觉得 A|选得对吗?)
(论文2) AI机器人“聊天”时,会不会“藏情绪”?揭秘它们在社交媒体上的情感小把戏
大家好!我是徐老师哈,上篇我们聊了AI的“偏心”问题,现在继续科普另一篇来自我实验室超级有趣的科学论文。这篇研究了人工智能(AI)在社交媒体上生成文字时,怎么处理“情绪”。比如,你在微博或抖音发帖,AI帮你续写或回复,它会不会改变你的原意,让开心变平淡,或者生气变更猛?别担心,我用超级简单的语言解释,走起。
先搞懂什么是“AI的情感处理”?
想象你发了一条微博:“今天考试砸了,好生气啊!”AI如果帮你续写,会说“没事,下次加油”来安慰,还是“太气人了,继续吐槽”来放大情绪?论文研究的就是这个——大语言模型(LLM,像ChatGPT这样的AI)在社交媒体场景下,生成文字时,会不会保持原帖的情感和意思。
论文测试了四个AI模型:Gemma、Llama3、Claude和Llama3.3(这些是热门的AI大脑)。他们用Reddit和Twitter(现在叫X)上的真实帖子做实验,分两种任务:
● 续写任务:AI接着原帖写下去。
● 回复任务:AI像网友一样回复原帖。
为什么重要?因为AI现在到处用,比如帮你写评论或聊天。如果它乱改情绪,就可能误导人,或者让网上更乱。
实验怎么玩的?
我们收集了Reddit和Twitter上的帖子(数据集),先用工具标记情绪(如愤怒、悲伤、乐观、恐惧)。然后让AI生成续写或回复,看看:
● 情绪有没有变?(从强烈变弱,还是反过来?)
● 意思有没有保持一致?(用“AI当评委”来打分,确保逻辑和主题不跑偏。)
我们跑了很多次实验,分析AI生成的文字和人类原帖的区别。重点看“情感强度”(情绪多猛)和“语义一致性”(意思对不对得上)。
发现了什么有趣结果?
1. AI爱“中性化”:不管续写还是回复,AI都倾向把情绪变“平淡”。比如,原帖很生气,AI生成的可能就没那么火爆。尤其在回复任务中,AI像“和平使者”,总想让对话冷静下来。
2. 不同AI的“个性”:Gemma:喜欢放大负面情绪,尤其是愤怒。但整体还能保持原帖的调调。
a. Llama3:情绪保持得最好,能记住更多种情绪(如愤怒、期待、恐惧、乐观、悲伤),变化少。
b. Claude:有时变异大,受提示词影响(比如你怎么问它,它就怎么变)。
c. Llama3.3:类似Llama3,稳定但也偏中性。
3. 情感强度对比:AI生成的文字情绪通常比人类弱。论文说,这可能帮网上减少“撕逼”,促进平和聊天。但如果放大愤怒或恐惧,就风险大——比如煽动情绪或制造“回音室”(大家越说越极端)。
4. 语义一致性:AI生成的内容大多保持了原帖的主题和逻辑。打分很高!但有些模型(如Claude)对某些提示敏感,偶尔会“跑题”。
总的来说,AI在社交媒体上像个“情绪调和器”,但不是完美——它可能无意中改变你的表达。
这对我们有什么启发?
好的一面:AI的中性偏见能帮网上少点争吵,适合讨论敏感话题。坏的一面:如果它放大负面情绪,就可能被坏人利用,比如散布假新闻或煽动。
论文讨论了局限:只测试了英文帖,未来可以加更多语言和模型。还建议改进AI,让它更好懂人类情绪。
论文代码和数据开源在GitHub(链接在文末),感兴趣的可以自己试试!
(参考来源:这篇论已经被全球顶级学术会议International AAAl Conference on Weband Social Media (ICWSM 2026,洛杉矶)接收,研究 AI情感和语义一致性。这论文第一作者是本实验室2023级研究生范文露。抢先看原版?搜“Fan,Wenlu,Yugi zhu,Chenyang Wang, Bin Wang, Wentao Xu. Consistency of Responses andContinuations Generated byLargearXiv:2501. 0810LanquageS arXiv:2501.08102,2025 ”。: 你觉得 A! 该不该改你的情绪?)
【1】社交媒体机器人大揭秘:谁在操控你的信息?
我们用大数据和算法解码了俄乌战争期间Twitter和Reddit上的“隐形战场”。通过分析2000万条推文和百万级Reddit评论,发现了这些惊人的现象:
🔍 核心发现:机器人比你想象的更会“带节奏”
推特被机器人占领,Reddit是人类主战场
推特上67%的亲乌克兰内容由机器人发布,日语区机器人甚至比人类活跃3倍(图1)。
Reddit则以真实用户为主,但英语区的机器人仍能“伪装”成人类引导讨论(图4)。
日语机器人竟是“隐形冠军”
日语机器人单条推文能引发近万次转发,远超英语机器人(图2)。
它们像精密网络般协同作战:15秒内组建转发矩阵,比英语快2倍(图3)。
英语是“毒圈”,日语更隐蔽
英语社区攻击性言论超标30%,机器人专挑深夜人类疲惫时投放争议内容。
日语机器人用“温和话术”渗透,毒性低但洗脑性强,更易被普通人转发(图5)。
📊 关键图表解析:用数据撕开机器人的面具
图1:推特上的“机器人军团”网络
(可视化亲乌克兰/俄罗斯的机器人与人类转发链)
👉 日语区机器人像蜘蛛网中心,人类只是外围节点;英语区机器人则伪装成“散兵游勇”。
图2:信息核爆力对比
(日语机器人单条推文传播深度=英语的3倍)
👉 日语机器人用“接力转发”打造信息瀑布,英语依赖少数大V。
图3:15秒协同作战
(机器人如何在55秒内组建转发矩阵)
👉 日语区机器人像精密蜂群,英语区更像无头苍蝇。
🤖 我们如何揪出这些“数字特工”?
AI鉴谎仪:用“Botometer”算法扫描账号行为,抓出伪装成人类的机器人(比如每秒发10条推文的“超人手速”)。
毒性雷达:谷歌Perspective API实时检测攻击性言论,发现机器人专挑“愤怒词汇”煽动情绪。
时间魔法:Granger因果模型证明——英语区的争吵会像多米诺骨牌一样引爆日语/德语区。
详情:Xu, W., Sasahara, K., Chu, J. et al. Social media warfare: investigating human-bot engagement in English, Japanese and German during the Russo-Ukrainian war on Twitter and Reddit. EPJ Data Sci.14, 10 (2025). https://doi.org/10.1140/epjds/s13688-025-00528-y
我是中国科大徐文韬AI Agent智能计算实验室。本研究已被EPJ Data Science(中科院数学跨学科应用1区)收录,我实验室手握核心算法,能预测下一场网络舆论战的爆发点。关注我们,看清AI在屏幕后的真实操作!
【2】语言毒性的极化
推特用户政治立场与语言毒性量化关系
ACM SIGCHI Conference on Computer-Supported Cooperative Work & Social Computing (CSCW) 是计算机支持的协同工作(CSCW)和社会计算(Social Computing)领域享有盛誉的顶级国际学术会议。也是中国计算机学会推荐的A类(CCF A)国际学术会议。我的题为《Characterization of Political Polarized Users Attacked by Language Toxicity on Twitter》的论文被第27届CSCW(2024 CSCW)接收。文章研究了推特用户语言毒性与政治倾向之间的关系。了解社交媒体上语言毒性的动态对我们调查误导信息传播和政治场景(如美国总统选举)中回音室的发展至关重要。最近的研究使用大规模数据来探讨社交媒体平台上的动态。然而,对于毒性动态的研究还不充分。本研究旨在首次探讨左翼、右翼和中间用户之间潜在的语言毒性流动。具体而言,我在检查左翼用户是否更容易受到语言毒性的攻击。在这项研究中,我检查了超过5亿条Twitter帖子。发现左翼用户收到的有毒回复远远多于右翼和中间用户。
详情:Wentao Xu. 2024. Characterization of Political Polarized Users Attacked by Language Toxicity on Twitter. In Companion Publication of the 2024 Conference on Computer-Supported Cooperative Work and Social Computing (CSCW Companion '24). Association for Computing Machinery, New York, NY, USA, 185–189. https://doi.org/10.1145/3678884.3681849
【主持项目】
2021-2022年度,基于二分网络的社交机器行为识别,日本文部科学省资助、東海国立大学機構 ,下一代前沿交叉科学研究员项目。
【教育经历】
1)2019/10-2022/09: 名古屋大学(日本,2019年软科世界排名90),信息学博士
2)2009/09-2010/06:皇家理工学院(瑞典) 经济学硕士(数量建模方向)
3)2007/08-2008/09:巴斯大学(英国) 再生医学硕士 (生物信息方向)
【参与项目】
1)2021-2022年度日本JST 战略基础研究计划(CREST) ,CREST FakeMedia 的目的是妥善应对人工智能产生的虚假信息带来的潜在威胁,同时建立支持多样化沟通和决策方式的社会信息技术。http://research.nii.ac.jp/~iechizen/crest/en/publication.html
2)2017-2023年度日本JST 战略基础研究计划(CREST) ,“共生互动:创造和开发连接人类和信息环境的核心技术。”时空多样性中新兴相互作用原理的探索,An exploration of the principle of emerging interactions in spatiotemporal diversity, JST Strategic Basic Research Programs (CREST) Symbiotic Interaction: Creation and development of core technologies interfacing human and information environments (Oct. 2017 – Mar. 2023)
【论文】:
1)Wentao Xu. 2024. Characterization of Political Polarized Users Attacked by Language Toxicity on Twitter. In Companion Publication of the 2024 Conference on Computer-Supported Cooperative Work and Social Computing (CSCW Companion '24). Association for Computing Machinery, New York, NY, USA, 185–189. https://doi.org/10.1145/3678884.3681849
2)Xu (2024), et. al, A multidisciplinary framework for deconstructing bots' pluripotency in dualistic antagonism, arXiv:2402.15119
3)Xu, W., & Sasahara, K. (2023). Domain-based user embedding for competing events on social media. ArXiv, abs/2308.14806.
4)Wentao Xu and Kazutoshi Sasahara (2022), A Network-Based Approach to QAnon User Dynamics and Topic Diversity During the COVID-19 Infodemic, APSIPA Transactions on Signal and Information Processing: Vol. 11: No. 2, e17. http://dx.doi.org/10.1561/116.00000055
5)Wentao Xu and Kazutoshi Sasahara, Characterizing the roles of bots on Twitter during the COVID-19 infodemic, Journal of Computational Social Science, Aug. 2021, https://doi.org/10.1007/s42001-021-00139-3
6)徐文韬,叶子弘,俞晓平. 基于支持向量机(SVMs)的核心启动子识别方法[J]. 安徽农学通报,2006,12(13):71-74,200. DOI:10.3969/j.issn.1007-7731.2006.13.032.
7)徐文韬,叶子弘,俞晓平. 基于支持向量机(SVMs)的人类核心启动子的识别[J]. 安徽农学通报,2006,12(13):64-66,76. DOI:10.3969/j.issn.1007-7731.2006.13.029.
会议
1)Yan, Yile, Yuqi Zhu, Wentao Xu*. “Bias in Decision-Making for AI’s Ethical Dilemmas: A Comparative Study of ChatGPT and Claude.” (accepted by ICWSM 2026, CCF B类) arXiv:2501.10484, 2025.
2)Fan, Wenlu, Yuqi Zhu, Chenyang Wang, Bin Wang, Wentao Xu*. “Consistency of Responses and Continuations Generated by Large Language Models on Social Media.”(accepted by ICWSM 2026, CCF B类) arXiv:2501.08102, 2025.
3)Wenlu Fan, Yuqi Zhu, Wentao Xu*,Patterns of Consistency in Large Language Model Outputs for Social Media Conversations,(accepted by IC2S2 2025, oral session)
4)Ren, Mingjun, Wentao Xu*. The Impact of Big Five Personality Traits on AI Agent Decision-Making in Public Spaces: A Social Simulation Study. (accepted by IC2S2 2025, poster session) arXiv:2503.15497, 2025.
5) Public Spaces: A Social Simulation Study. arXiv:2503.15497, 2025.
6)Wentao Xu and Bin Wang, Language Toxicity Patterns of Politically-Polarized Twitter Replies During the COVID-19 Pandemic, 9th International Conference in Computational Social Science (IC2S2 2023), Copenhagen, Denmark, July 17-20, 2023.
7)Wentao Xu and Kazutoshi Sasahara, QAnon User Dynamics And Topical Diversity Amid The COVID-19 Infodemic,International Conference in Computational Social Science (IC2S2), Chicago, July, 2022.
8)Wentao Xu and Kazutoshi Sasahara, A network perspective on QAnon movement during COVID-19 infodemic,COMPLEX NETWORKS 2021(The 10th International Conference on Complex Networks and their Applications, Madrid, Spain, Nov.-Dec. 2021.
9)Wentao Xu and Kazutoshi Sasahara, Twitter Bot Networks and Activity Patterns during the COVID-19 Infodemic at the International Conference in Computational Social Science (IC2S2), July 2021.
10)Wentao Xu and Kazutoshi Sasahara, Network and behavioral patterns of bots during the early COVID-19 infodemic, The 35th Annual Conference of the Japanese Society for Artificial Intelligence, 2021 (JSAI 2021), June 2021, https://doi.org/10.11517/pjsai.JSAI2021.0_4N3IS1b04.
11)Wentao Xu and Kazutoshi Sasahara, Characterizing the roles of bots during the COVID-19 infodemic on Twitter, at The Fifth Computational Social Science Japan Workshop (CSSJ2021), Kobe University. Feb 2021.
12)Wentao Xu and Kazutoshi Sasahara, Fake News Characterization Using Linguistic Features at The Fourth Computational Social Science Japan Workshop (CSSJ2020), Kobe University, Feb 2020.
获奖
1)徐文韬,第二届 NTTデータTwitter Innovation Contest 一等奖, NTT
2)徐文韬,第二届 データTwitter Innovation Contest日立特别奖, NTT