阅读列表:6
启发式
- [2011.15091] Inductive Biases for Deep Learning of Higher-Level Cognition
- Anirudh Goyal, Yoshua Bengio; Royal Society A 2011; Ar5iv; 181
- [2207.02098] Neural Networks and the Chomsky Hierarchy
- Grégoire Delétang, Anian Ruoss, Jordi Grau-Moya, Tim Genewein, Li Kevin Wenliang, Elliot Catt, Chris Cundy, Marcus Hutter, Shane Legg, Joel Veness, Pedro A. Ortega
- deepmind; ICLR 2023; github; Ar5iv 借用形式语言的分类法,检验各类序列模型的长度泛化能力
- Transformer升级之路:8、长度外推性与位置鲁棒性 - 科学空间|Scientific Spaces
[2307.02792v2] What Should Data Science Education Do with Large Language Models?
- Xinming Tu , James Zou, Weijie J. Su, Linjun Zhang ; arXiv Vanity
chatgpt 改变数据科学教育和数据分析处理流程,类似从程序员到产品经理的变化, 我想到的是,这种题材也可以发论文?可能是发在教育学领域。另一方面,把这类论文推荐给做数据分析相关的朋友还是不错,至少有权威依据
-
- Lionel Wong, Gabriel Grand, Alexander K. Lew, Noah D. Goodman, Vikash K. Mansinghka, Jacob Andreas, Joshua B. Tenenbaum
- MIT; github; Ar5iv; long warning
用 church 概率编程语言结合 gpt4
[2305.06424] Bot or Human? Detecting ChatGPT Imposters with A Single Question
- Hong Wang, Xuan Luo, Weizhi Wang, Xifeng Yan; Ar5iv;
测试 LLM 不擅长的任务,给出了一种分类法 不擅长任务包括:字符串操作:统计字符串里某个字符的个数;替换字符串;指出字符串第 i 个字符是什么 ASCII art 识别 擅长部分:记忆(比如背诵 Pi 的小数点后 50 位),倚靠记忆的计算; 主要为在线服务提供商提供检测是否是机器人的方法?
-
- Zhiying Jiang, Matthew Y.R. Yang, Mikhail Tsirlin, Raphael Tang, Jimmy Lin
- [2212.09410] Less is More: Parameter-Free Text Classification with Gzip
- U Waterloo; Ar5iv; ACL2023-finding
gzip 压缩做降维并且分类
- [2210.04885] What the DAAM: Interpreting Stable Diffusion Using Cross Attention
- Raphael Tang, Linqing Liu, Akshat Pandey, Zhiying Jiang, Gefei Yang, Karun Kumar, Pontus Stenetorp, Jimmy Lin, Ferhan Ture
- Ar5iv; ACL2023 best paper
- [2305.16765] Backpack Language Models
- John Hewitt, John Thickstun, Christopher D. Manning, Percy Liang
- Ar5iv; ACL2023 outstanding paper
- [2210.13382] Emergent World Representations: Exploring a Sequence Model Trained on a Synthetic Task
- Kenneth Li, Aspen K. Hopkins, David Bau, Fernanda Viégas, Hanspeter Pfister, Martin Wattenberg
- Ar5iv; ICLR2023 oral
- [2212.13345] The Forward-Forward Algorithm: Some Preliminary Investigations
- https://crfm.stanford.edu/assets/report.pdf#philosophy
- 其中 2.6 节 Philosophy of understanding Authors: Christopher Potts, Thomas Icard, Eva Portelance, Dallas Card, Kaitlyn Zhou, John Etchemendy
- https://www.youtube.com/watch?v=dbo3kNKPaUA
- 规模更大会涌现出更多能力,因此之前研究的很多结论可能是错的,很多人证明神经网络对某些能力不行,但可能只要规模足够大,一切又都可能,以拉马努金的能力为例,可能之后 gpt 可以"心算"非常复杂的公式(毕竟人脑都能达到)。
- 人对某些问题的直觉也会随着模型变大展现出来的能力而改变
- 规模变大是一种去除 inductive bias 的过程
- 另一方面规模变大也是在探索新的 inductive bias, 比如也许接下来要去除的是损失函数这个 indcutive bias, 损失部分也逐渐参数化。因为 HFRL 就是用更广泛的回报损失作为训练目标,而不是下一个词的预测。
- Practices for Governing Agentic AI Systems openai 发布的关于 AI agent 系统的实践指南,比较高层,更多是在产品设计层面
- Weak-to-strong generalization openai 超级对齐团队第一篇研究论文,用小模型(类比人类)生成的标签微调大模型(gpt-4 以及未来更强大模型), 效果超越小模型本身,但低于 ground truth 样例微调大模型的结果,添加一些训练技巧后会有所提升
- 微软仅凭「提示工程」让GPT-4成医学专家,超过一众高度微调模型,专业测试准确率首次超90%-36氪 medprompt
- [2301.06627] Dissociating language and thought in large language models
世界理解,认知,逻辑,因果
从这个系列开始,都是关于 symbolic AI 的 Logical Neural Networks Pt 1/4: Central Ideas - YouTube
同样包括: https://www.youtube.com/watch?v=vD0qJsluZ-0
因果相关: https://www.youtube.com/watch?v=wx36E8ItZRE
https://causalai.net/r60.pdf https://www.youtube.com/watch?v=qRDq3hN8IKI
世界模型: gabegrand/world-models
逻辑: Ask HN: LLM Logic Programming Research? | Hacker News
抽象推理 https://x.com/AndrewLampinen/status/1547887763214675971
从文字模型到世界模型,Meta新研究让AI Agent理解物理世界-36氪
概率,采样 https://www.youtube.com/watch?v=Jr1GdNI3Vfo
yejinchoi: 常识,推理 https://www.youtube.com/watch?v=oIdnPeeSQnY
https://www.youtube.com/watch?v=B-TWZLlA_jc
https://arxiv.org/abs/2307.02477
主动推理 https://huggingface.co/blog/KnutJaegersberg/active-reasoning
Were RNNs All We Needed?
想回顾 state-space-like models 领域模型