看那年今日还挺难过的。
这几年陆陆续续听了一些关于进食障碍的播客,总能看到有评论说“别吃不就好了”“管住嘴有那么难吗”,没体验过的人大概很难理解那种只有食物能稍稍缓解不安和虚无感所以对吃东西上/瘾,而且完全无法控制进食量,摄入远远大于身体所需的食物(比如有次我在吃了五餐饭后还摄入了六个甜筒。。)以后会产生强烈的自我厌恶感和愧疚感,但这种极/端/负/面情绪又是唯一能让自己觉得“我还活着”的东西,所以第二天会继续暴食行为...现在想来那段时间我的生命能量真的很低。
之前看到有人说做些分散注意力且能带来满足感/幸福感的事,比如跟亲密的朋友聊天,比如进行些体育运动。但事实是我每次跟朋友度过有趣的一天或者跑完十公里以后依旧会忍不住疯狂进食。
我现在算是几乎摆脱进/食/障/碍了,但并没有什么科学的方法论,因为我只是回到了从小生活的熟悉环境里(因为我的情绪很容易受天气影响,大学所在的城市经常阴天下雨,我很容易陷入抑/郁/情绪里,然后就会想要用高油高糖食物来改善心情),不用再面对毫无兴趣的学科作业及考试(只能说读不喜欢的专业会很痛苦很有压力...),不知不觉间和食物的关系就健康了起来。所以被朋友问到“该怎么治愈eating disorder”我只能说有条件的话去看医生看医生看医生,这是一种很难自己调理好的心理障碍,条件不足的话就试着改变一下身处的环境(其实这一点也很难)。
以及我真的烦/死看到对进/食/障/碍一知半解的人说高高在上的风凉话,你们傲慢又无知的样子真的很丑陋[微笑]
这几年陆陆续续听了一些关于进食障碍的播客,总能看到有评论说“别吃不就好了”“管住嘴有那么难吗”,没体验过的人大概很难理解那种只有食物能稍稍缓解不安和虚无感所以对吃东西上/瘾,而且完全无法控制进食量,摄入远远大于身体所需的食物(比如有次我在吃了五餐饭后还摄入了六个甜筒。。)以后会产生强烈的自我厌恶感和愧疚感,但这种极/端/负/面情绪又是唯一能让自己觉得“我还活着”的东西,所以第二天会继续暴食行为...现在想来那段时间我的生命能量真的很低。
之前看到有人说做些分散注意力且能带来满足感/幸福感的事,比如跟亲密的朋友聊天,比如进行些体育运动。但事实是我每次跟朋友度过有趣的一天或者跑完十公里以后依旧会忍不住疯狂进食。
我现在算是几乎摆脱进/食/障/碍了,但并没有什么科学的方法论,因为我只是回到了从小生活的熟悉环境里(因为我的情绪很容易受天气影响,大学所在的城市经常阴天下雨,我很容易陷入抑/郁/情绪里,然后就会想要用高油高糖食物来改善心情),不用再面对毫无兴趣的学科作业及考试(只能说读不喜欢的专业会很痛苦很有压力...),不知不觉间和食物的关系就健康了起来。所以被朋友问到“该怎么治愈eating disorder”我只能说有条件的话去看医生看医生看医生,这是一种很难自己调理好的心理障碍,条件不足的话就试着改变一下身处的环境(其实这一点也很难)。
以及我真的烦/死看到对进/食/障/碍一知半解的人说高高在上的风凉话,你们傲慢又无知的样子真的很丑陋[微笑]
今天读了一篇有意思的论文《Large Language Models as Analogical Reasoners 》,跟大家一起分享一下。
如果你对提示工程熟悉的话,一定听说过“思维链”(CoT,Chain of Thought),可以显著提升大语言模型(LLM)的推理能力。但使用 CoT 的时候,是需要我们需要提供相关的指导或推理示例来引导模型的。
常用的两种 CoT 方法是: “零示例 CoT(0-shot CoT)”“少示例 CoT(few-shot CoT)”,0-shot CoT 就是在Prompt里面明确给出推理步骤,让 LLM 参照步骤来完成推理。few-shot CoT 则是给出少量示例,让 LLM 参照示例来完成推理。
举例来说,现在有一道数学题:”有一个正方形,它的四个顶点分别是 (-2, 2),(2, -2),(-2, -6) 和 (-6, -2),求这个正方形的面积是多少?“
如果不用 CoT,那么就是直接将问题扔给 LLM,让它得出答案。这个问题对于 GPT-4 来说应该可以解出来,但是对于 GPT-3.5 来说有可能会出错,至于其他推理弱一些的模型来说出错概率就更大了。
如果用 0-shot CoT,那么就是在 Prompt 里面明确给出推理步骤,比如:
--------------
请按照以下步骤来计算:
1、先计算任意两个顶点的距离作为正方形边长
2、计算边长的平方得到正方形面积
--------------
按照这样的步骤,对于GPT-3.5这样的 LLM 来说应该能得到正确的结果。
如果用 few-shot CoT,那么就是给出少量示例,比如:
--------------
问:这里有一个正方形,它的四个顶点分别是 (0, 0),(1, 1),(0, 1) 和 (1, 0),求这个正方形的面积是多少?
答:我们从中选择任意两个顶点,比如 (0, 0) 和 (1, 1),计算它们的距离得到边长为1,然后对边长计算平方得到面积为1。
问:有一个正方形,它的四个顶点分别是 (-2, 2),(2, -2),(-2, -6) 和 (-6, -2),求这个正方形的面积是多少?
--------------
我们在Prompt里面明确给出一个示例,告诉LLM应该参考示例的步骤来做,这样对于GPT-3.5这样的 LLM 来说应该也能得到正确的结果。
那么什么是”类推提示法“呢?
想想我们上学的时候学数学,如果做这样的数学题,会思考有没有做过类似的题目,尤其对于我这样的小镇做题家,当年不知道做了多少卷子,到后面看到题目就能想起以前做过类似的题目,然后就能很快得出答案。
对于 LLM 来说,它对于知识的储备方面比人类还要强,在训练时已经积累了各种知识,各种案例,所以我们要做的就是要“激发” LLM 去找出与问题相关的知识和案例,然后用这些知识和案例来推理解决问题。
所以”类推提示法“,就是让 LLM 先不要着急解题,而是先列出若干个与问题相关的例子,然后借助这些例子来推理解决问题。这相当于让 LLM 帮你去写 few-shot,帮你生成思维链。Prompt 的结构如下:
--------------
初始问题:\<原始问题\>
相关问题:回想三个相关而独特的问题,并对每个问题及其解决方案进行描述。
解决初始问题:
--------------
让 LLM 在收到问题后,先回想三个相关而且独特的问题,并且列出每个问题和解决方案(最好包含步骤),并且一定要将中间过程打印出来。等 LLM 输出完这些相关例子后,再把原始问题打印一遍(防止遗忘),这样 LLM 就能用这些相关例子来推理解决原始问题了。
一个完整的使用类推提示法的Prompt参考:
--------------
你的任务是解数学题。当遇到一道数学题时,请你先回想一些相关的题目作为例子。然后,再去解决最开始的那个问题。
# 最开始的问题:
有一家航空公司为飞机上的每位乘客提供晚餐,乘客可以选择牛排或者鱼。六名机组人员中有三人可以选择牛排,三人可以选择鱼。如果食物是随机分配的,那么两名飞行员都拿到鱼的概率是多少呢?
# 操作指南:
你的答案中必须包含以下几点:
## 相关问题:
请你想出三个和最开始的问题相关的数学问题作为例子。注意,每个问题都应该和其它问题有所区别,包括和最开始的问题(比如,涉及不同的数字和名字)。每个问题都要按照以下的格式:
- “Q:” 后面写问题描述
- “A:” 后面写问题的解决方法,并把最终答案写在 \boxed 里。
## 解决最开始的问题:
说:“我们来解决下面这道数学题。” 然后按照以下的格式回答:
Q:把最开始的问题复制粘贴在这里。
A:解释解决方案,并把最终答案写在 \boxed 里。
--------------
参考聊天记录:https://t.cn/A6ODgRMm
论文:Large Language Models as Analogical Reasoners
https://t.cn/A6ODgRME
中文翻译:大语言模型的类比推理能力[译]
https://t.cn/A6ODgRM8
如果你对提示工程熟悉的话,一定听说过“思维链”(CoT,Chain of Thought),可以显著提升大语言模型(LLM)的推理能力。但使用 CoT 的时候,是需要我们需要提供相关的指导或推理示例来引导模型的。
常用的两种 CoT 方法是: “零示例 CoT(0-shot CoT)”“少示例 CoT(few-shot CoT)”,0-shot CoT 就是在Prompt里面明确给出推理步骤,让 LLM 参照步骤来完成推理。few-shot CoT 则是给出少量示例,让 LLM 参照示例来完成推理。
举例来说,现在有一道数学题:”有一个正方形,它的四个顶点分别是 (-2, 2),(2, -2),(-2, -6) 和 (-6, -2),求这个正方形的面积是多少?“
如果不用 CoT,那么就是直接将问题扔给 LLM,让它得出答案。这个问题对于 GPT-4 来说应该可以解出来,但是对于 GPT-3.5 来说有可能会出错,至于其他推理弱一些的模型来说出错概率就更大了。
如果用 0-shot CoT,那么就是在 Prompt 里面明确给出推理步骤,比如:
--------------
请按照以下步骤来计算:
1、先计算任意两个顶点的距离作为正方形边长
2、计算边长的平方得到正方形面积
--------------
按照这样的步骤,对于GPT-3.5这样的 LLM 来说应该能得到正确的结果。
如果用 few-shot CoT,那么就是给出少量示例,比如:
--------------
问:这里有一个正方形,它的四个顶点分别是 (0, 0),(1, 1),(0, 1) 和 (1, 0),求这个正方形的面积是多少?
答:我们从中选择任意两个顶点,比如 (0, 0) 和 (1, 1),计算它们的距离得到边长为1,然后对边长计算平方得到面积为1。
问:有一个正方形,它的四个顶点分别是 (-2, 2),(2, -2),(-2, -6) 和 (-6, -2),求这个正方形的面积是多少?
--------------
我们在Prompt里面明确给出一个示例,告诉LLM应该参考示例的步骤来做,这样对于GPT-3.5这样的 LLM 来说应该也能得到正确的结果。
那么什么是”类推提示法“呢?
想想我们上学的时候学数学,如果做这样的数学题,会思考有没有做过类似的题目,尤其对于我这样的小镇做题家,当年不知道做了多少卷子,到后面看到题目就能想起以前做过类似的题目,然后就能很快得出答案。
对于 LLM 来说,它对于知识的储备方面比人类还要强,在训练时已经积累了各种知识,各种案例,所以我们要做的就是要“激发” LLM 去找出与问题相关的知识和案例,然后用这些知识和案例来推理解决问题。
所以”类推提示法“,就是让 LLM 先不要着急解题,而是先列出若干个与问题相关的例子,然后借助这些例子来推理解决问题。这相当于让 LLM 帮你去写 few-shot,帮你生成思维链。Prompt 的结构如下:
--------------
初始问题:\<原始问题\>
相关问题:回想三个相关而独特的问题,并对每个问题及其解决方案进行描述。
解决初始问题:
--------------
让 LLM 在收到问题后,先回想三个相关而且独特的问题,并且列出每个问题和解决方案(最好包含步骤),并且一定要将中间过程打印出来。等 LLM 输出完这些相关例子后,再把原始问题打印一遍(防止遗忘),这样 LLM 就能用这些相关例子来推理解决原始问题了。
一个完整的使用类推提示法的Prompt参考:
--------------
你的任务是解数学题。当遇到一道数学题时,请你先回想一些相关的题目作为例子。然后,再去解决最开始的那个问题。
# 最开始的问题:
有一家航空公司为飞机上的每位乘客提供晚餐,乘客可以选择牛排或者鱼。六名机组人员中有三人可以选择牛排,三人可以选择鱼。如果食物是随机分配的,那么两名飞行员都拿到鱼的概率是多少呢?
# 操作指南:
你的答案中必须包含以下几点:
## 相关问题:
请你想出三个和最开始的问题相关的数学问题作为例子。注意,每个问题都应该和其它问题有所区别,包括和最开始的问题(比如,涉及不同的数字和名字)。每个问题都要按照以下的格式:
- “Q:” 后面写问题描述
- “A:” 后面写问题的解决方法,并把最终答案写在 \boxed 里。
## 解决最开始的问题:
说:“我们来解决下面这道数学题。” 然后按照以下的格式回答:
Q:把最开始的问题复制粘贴在这里。
A:解释解决方案,并把最终答案写在 \boxed 里。
--------------
参考聊天记录:https://t.cn/A6ODgRMm
论文:Large Language Models as Analogical Reasoners
https://t.cn/A6ODgRME
中文翻译:大语言模型的类比推理能力[译]
https://t.cn/A6ODgRM8
刚刚坐上回学校的车,其实每一次回学校的时候我最最舍不得的就是我的奶奶。
中午吃饭的时候,我突然发现每一次我夹菜的时候,她都会停下手上的动作注视着我,然后看着我把菜放进嘴里,问我怎么样咸淡。
问的多了我也就烦了,我说你吃你的就行了,不用管我,好吃的。
她不说话了,也不看着我了。
昨天,我吃完午饭,正在房间里玩原神的时候,她洗完碗又走进来,坐在我的桌边,也不说话,只是一会儿注视着我一会儿又看看窗外。
我问她你干啥呢,她说你明天就要走了,我没想到你这么快就要走了,我想多和你呆一会。
我一下子很想哭,我的心软的一塌糊涂。
我自诩是一个极潇洒的人。
我经常和我身边的人说,我们都是独立的个体,相互尊重但是不能相互绑架要给对方自由。
我觉得我好酷。
在面对亲密关系时,我也总说我好像没有办法做到很爱一个人,可以喜欢一个人,但是也并不是非你不可,但是我最爱自己也最爱自由。暧昧着就在一起,没意思了就分开。
我觉得我好酷。
我也时常和自己说,不要对任何关系寄予一辈子不变的希望。全心付出就好,不要奢求反馈,这样子就不会再纠结得到与失去,继续还是不继续,放手还是不放手。
我觉得我好酷。
但是我真的那么拿得起又放得下吗?
奶奶注视着我的时候我就很想哭。她坐在过厅旁,我每一次路过去水吧的时候她就抬眼看着我的时候我想哭。在学校里,想着她一个人在家时在做什么呢我想哭。
海绵宝宝问派大星,我不在的时候,你在做些什么呢?派大星说,当然是等你回来再一起抓水母呀。
我在学校里的日复一日,奶奶又何尝不是在每天等我回家呢?
在上大学之前,我选择留在省内,计划是每个月甚至每个礼拜回家一次。
但是社团,学生会,考试,作业….太多的理由,我下意识的觉得,下次吧,下次再回家也是一样。
好像回家变得没有必要。
这样子算起来,见到她的机会实在屈指可数
我说,没关系,你要接受所有的朋友都是阶段性的。
我说,所有的关系都是具有趋利性的,不管是情绪价值还是其他价值,没有作用了就没有了维护的必要。
所有热烈的情绪都是间接性的。没关系,你要知道没办法成为一个人的top1也是很正常的一件事。
可是这些所有的我认为的规则与秩序,都绕着她走,她100%无条件的站在我这边,替我撑腰,为我说话,希望我好。
刚刚奶奶送我上车,我很想抱抱她,我想说我好爱你,你一定要照顾好自己。
但是我没有说。
坐在车上,我现在真的好想哭。
奶奶她牵着我的手的时候我好想哭。喜欢的人看着我的眼睛说我爱你的时候我好想哭。有人说想要和我做一辈子的好朋友,永远在一起的时候我好想哭。
拜托,mxy。你不要再骗自己了,你一点也不酷啊。不要再装作清醒又自制的样子了。不要再说自己100%爱自由不care任何人的样子了。
你就是一个极度缺爱又渴望爱的小女孩。
你就是需要很多鼓励很多认可很多支持很多拥抱的人,你就是拥有大大小小无数个洞,需要很多很多爱来填满的人。
我想我醒了,我不装了
我再也不会和在乎我的人说,别管我了,做你的事就好了。
中午吃饭的时候,我突然发现每一次我夹菜的时候,她都会停下手上的动作注视着我,然后看着我把菜放进嘴里,问我怎么样咸淡。
问的多了我也就烦了,我说你吃你的就行了,不用管我,好吃的。
她不说话了,也不看着我了。
昨天,我吃完午饭,正在房间里玩原神的时候,她洗完碗又走进来,坐在我的桌边,也不说话,只是一会儿注视着我一会儿又看看窗外。
我问她你干啥呢,她说你明天就要走了,我没想到你这么快就要走了,我想多和你呆一会。
我一下子很想哭,我的心软的一塌糊涂。
我自诩是一个极潇洒的人。
我经常和我身边的人说,我们都是独立的个体,相互尊重但是不能相互绑架要给对方自由。
我觉得我好酷。
在面对亲密关系时,我也总说我好像没有办法做到很爱一个人,可以喜欢一个人,但是也并不是非你不可,但是我最爱自己也最爱自由。暧昧着就在一起,没意思了就分开。
我觉得我好酷。
我也时常和自己说,不要对任何关系寄予一辈子不变的希望。全心付出就好,不要奢求反馈,这样子就不会再纠结得到与失去,继续还是不继续,放手还是不放手。
我觉得我好酷。
但是我真的那么拿得起又放得下吗?
奶奶注视着我的时候我就很想哭。她坐在过厅旁,我每一次路过去水吧的时候她就抬眼看着我的时候我想哭。在学校里,想着她一个人在家时在做什么呢我想哭。
海绵宝宝问派大星,我不在的时候,你在做些什么呢?派大星说,当然是等你回来再一起抓水母呀。
我在学校里的日复一日,奶奶又何尝不是在每天等我回家呢?
在上大学之前,我选择留在省内,计划是每个月甚至每个礼拜回家一次。
但是社团,学生会,考试,作业….太多的理由,我下意识的觉得,下次吧,下次再回家也是一样。
好像回家变得没有必要。
这样子算起来,见到她的机会实在屈指可数
我说,没关系,你要接受所有的朋友都是阶段性的。
我说,所有的关系都是具有趋利性的,不管是情绪价值还是其他价值,没有作用了就没有了维护的必要。
所有热烈的情绪都是间接性的。没关系,你要知道没办法成为一个人的top1也是很正常的一件事。
可是这些所有的我认为的规则与秩序,都绕着她走,她100%无条件的站在我这边,替我撑腰,为我说话,希望我好。
刚刚奶奶送我上车,我很想抱抱她,我想说我好爱你,你一定要照顾好自己。
但是我没有说。
坐在车上,我现在真的好想哭。
奶奶她牵着我的手的时候我好想哭。喜欢的人看着我的眼睛说我爱你的时候我好想哭。有人说想要和我做一辈子的好朋友,永远在一起的时候我好想哭。
拜托,mxy。你不要再骗自己了,你一点也不酷啊。不要再装作清醒又自制的样子了。不要再说自己100%爱自由不care任何人的样子了。
你就是一个极度缺爱又渴望爱的小女孩。
你就是需要很多鼓励很多认可很多支持很多拥抱的人,你就是拥有大大小小无数个洞,需要很多很多爱来填满的人。
我想我醒了,我不装了
我再也不会和在乎我的人说,别管我了,做你的事就好了。
✋热门推荐