- 主题:我是沙B
某个地方不是原子操作? 编译优化参数是-O3或者-O2吗, 先改成-O0
再给怀疑出问题的地方前后加上__disable_irq(); __enable_irq();
试试?
【 在 dismoon 的大作中提到: 】
已知:
void TIM3_IRQHandler(void) //State Process
{
static unsigned char j=0;
(*p_STA_Function)(&j);
TIM3->SR&=0xFFFE;
}
时钟3里执行一个指向某个函数的指针的函数
void fn_STA_PreStabilize(unsigned char *i)
{
(*i)++;
if ((*i)>10)
{
(*i)=0;
p_STA_Function=fn_STA_RetroStabilize;
}
}
时钟里的函数指针指向该函数,然后该函数会修改指向自己的指针,只向另一个函数
问题:
我在时钟3最后一个语句
TIM3->SR&=0xFFFE;
添加一个中断调试点,一步一步执行,程序可以跑通
然后去掉这个调试点,直接跑,立刻跑飞到hardfault handler的错误向量里面
求助。
--
FROM 124.16.226.*
因为结构紧凑,代码不会拉很长,
个人习惯而已,你喜欢用if else 也一样,我就是对条件执行单指令喜欢这么写而已。
【 在 fbf 的大作中提到: 】
: 为啥要用条件表达式?条件表达式:前后两个表达式,一定是只执行其中一个吗?
--
FROM 180.116.135.*
我真的不觉得它有哪些知识库缺乏的领域。
要么就是时间限制,比如它的知识到2022年1月截止,而rust发展的很快,落后2年差别其实是很大的。
chatgpt确实经常会犯错误,会捏造答案。我最早对它印象很差,就是因为刚开始玩的时候我被它忽悠了,给带到了阴沟里。当时我有个需求问它怎么做,结果它从互联网的犄角旮旯里刨出一个非常magic的库,然后说只需要安装这个xxx包,然后这样那样就可以搞定了。
然后我去查这个包还真的有,虽然没啥人用,也比较老,看上去是个已经死掉的项目,但这个项目确实跟我的需求高度相关,感觉是个不错的基础。然后我就在上面砸了一周时间,直到确认这个项目存在根本性的设计问题,根本就不合适...
现在我用多了就发现,它回答的质量其实跟你能揪出它多少错误的能力高度相关。你要是揪不出它的错,那它回答的质量就是很烂。但如果你能不断指出它的错误,就能逼出它的高质量回答。这也是我现在对它改观的原因之一。
【 在 ZHMZFFL 的大作中提到: 】
: 是的,挺有用。用上就离不开的大号别针
: 但chatgpt最大的毛病它遇到知识库缺乏性领域,就开始非东拼西凑的胡编。带来误导(当然常用它的人会校验它提供的信息)
:
--
FROM 180.111.26.*
所以说嘛,能上rust就上rust,我也把自己逼上梁山,把目前最后一个项目做完就把gcc卸载掉。。。之后只用rust~
【 在 dismoon 的大作中提到: 】
: 搞了半天,某个数组溢出了,我是砂币
: ====================================================
: 已知:
: ...................
--
FROM 180.111.26.*
让它写个py、c、js程序是挺好用。这个方面知识不缺乏
但小众边缘方面,就很难凑
说个极端点的“知识缺乏”例子,比如问一个40年前设备说明书里内容,这说明书压根没被收入到网上(没在chatgpt知识库),那么理想的回答应该是“我查不到相关内容,无法回答”
但实际是,硬给凑出个“一本正经假说明书”。信它的鬼话就完蛋了
我觉得下一步的突破改进,就是查不到就说查不到,不再搞非要说点啥
【 在 lvsoft 的大作中提到: 】
: 我真的不觉得它有哪些知识库缺乏的领域。
: 要么就是时间限制,比如它的知识到2022年1月截止,而rust发展的很快,落后2年差别其实是很大的。
: chatgpt确实经常会犯错误,会捏造答案。我最早对它印象很差,就是因为刚开始玩的时候我被它忽悠了,给带到了阴沟里。当时我有个需求问它怎么做,结果它从互联网的犄角旮旯里刨出一个非常magic的库,然后说只需要安装这个xxx包,然后这样那样就可以搞定了。
: ...................
--
FROM 60.1.7.*
这种就不是正经用法啊,我用gpt都会跟他确认他懂不懂,有没有相关信息,然后我会一步步的去深化我的问题。
它的回答其实也是一样的,先假设你是小白给你各种科普,直到后面发现你是老手的时候它的回答才会非常的有针对性。
而且gpt也经常会有明确告知我它没有这方面信息。但你在明知道它没有这个信息还要求他回答,它确实会给你硬编,因为它的训练模式就是一问一答,并让上下文尽量合理。你自己知道它在硬编,你可以马上指出来制止啊。它是工具,是用来解决人的问题的,把它当陪聊是人的问题,不是它的问题。
但我不认为gpt存在“小众边缘”的领域。我觉得我问的很多问题都挺小众边缘的,但它回答的都让我很满意。我前面不是说了么,原本需要通过同学关系去找各种领域行业专家咨询的事,我现在都是直接把它当全行业专家咨询了。gpt现在的问题是记忆容量太小,并且也比较笨,有时候会记不清楚细节,有时候脑回路也比较奇怪,但知识的全面性不用怀疑。它能在我最擅长的领域给出我都不知道的信息,我反正是很服气了,问不出来一般只是提问的姿势不对而已。
【 在 ZHMZFFL 的大作中提到: 】
: 让它写个py、c、js程序是挺好用。这个方面知识不缺乏
: 但小众边缘方面,就很难凑
: 说个极端点的“知识缺乏”例子,比如问一个40年前设备说明书里内容,这说明书压根没被收入到网上(没在chatgpt知识库),那么理想的回答应该是“我查不到相关内容,无法回答”
: ...................
--
修改:lvsoft FROM 180.111.26.*
FROM 180.111.26.*
明知没有怎么会问呢,除非是测试者
现在对小众边缘领域的问题,只能默认gpt多半胡编
【 在 lvsoft 的大作中提到: 】
: 这种就不是正经用法啊,我用gpt都会跟他确认他懂不懂,有没有相关信息,然后我会一步步的去深化我的问题。
: 它的回答其实也是一样的,先假设你是小白给你各种科普,直到后面发现你是老手的时候它的回答才会非常的有针对性。
: 而且gpt也经常会有明确告知我它没有这方面信息。但你在明知道它没有这个信息还要求他回答,它确实会给你硬编,因为它的训练模式就是一问一答,并让上下文尽量合理。你自己知道它在硬编,你可以马上指出来制止啊。它是工具,是用来解决人的问题的,把它当陪聊是人的问题,不是它的问题。
: ...................
--
FROM 60.1.7.*