- 主题:chatgtp就像渣男,我家猫就像渣女
自从chatgtp问世以来我一直在用,但是他就像渣男一样经常说谎,聪明如我,没有被坑过。
毕竟它是机器不是人,每次给到指令,让它提供references它就没办法再撒谎。
我家猫到处撩邻居,几个邻居定时每天喂她食物,就是有时候他们要出门游玩,还把食物送到我家门上
家猫每天定点要出门撩邻居,有时候回来晚了,我关门了,她就只好再门外睡一晚。
今天她又准备出门,我不给她开门,暴风雪马上要来了,这真的是撩人不要命的角色。可以改吗
忘记说了,它最擅长造假references,必须跟他说不能编造,搜索数据库。然后一条一条的核对。
--
修改:MyRina FROM 75.181.39.*
FROM 75.181.39.*
我只看楼主颜值不看她说啥
- 来自 水木社区APP v3.5.7
【 在 wxdf 的大作中提到: 】
: 是GPT不是GTP啊。
--
FROM 111.192.99.*
猫厉害了
【 在 MyRina 的大作中提到: 】
: 自从chatgtp问世以来我一直在用,但是他就像渣男一样经常说谎,聪明如我,没有被坑过。
:
: 毕竟它是机器不是人,每次给到指令,让它提供references它就没办法再撒谎。
:
: 我家猫到处撩邻居,几个邻居定时每天喂她食物,就是有时候他们要出门游玩,还把食物送到我家门上
: ..................
发自「今日水木 on iPhone 13 Pro」
--
FROM 223.104.78.*
哦哈哈哈哈哈哈哈
【 在 wxdf 的大作中提到: 】
: 是GPT不是GTP啊。
: 【 在 MyRina 的大作中提到: 】
: : 标 题: chatgtp就像渣男,我家猫就像渣女
: : 发信站: 水木社区 (Sun Jan 25 08:32:55 2026), 站内
: :
: : 自从chatgtp问世以来我一直在用,但是他就像渣男一样经常说谎,聪明如我,没有被坑过。
--发自 ismth(丝滑版)
--
FROM 175.6.34.*
撩一般指男的,女的用招徕
【 在 MyRina 的大作中提到: 】
: 自从chatgtp问世以来我一直在用,但是他就像渣男一样经常说谎,聪明如我,没有被坑过。
:
: 毕竟它是机器不是人,每次给到指令,让它提供references它就没办法再撒谎。
:
: 我家猫到处撩邻居,几个邻居定时每天喂她食物,就是有时候他们要出门游玩,还把食物送到我家门上
:
--发自 ismth(丝滑版)
--
FROM 175.6.34.*
笑点这么低?
【 在 Barbarossa 的大作中提到: 】
: 哦哈哈哈哈哈哈哈
:
--
FROM 75.181.39.*
你居然不知道gpt,它是生成式预训练转换器,generative pre-trained transformer。
大意是把输入文本转换为词元token, 词元转换为词向量。词向量要通过大语言模型预训练来确定它的数值,开始都是随机数字。模型用一种核心技术叫自注意机制加前馈神经网络来训练,训练完了这个词向量能抓取上下文的语义关系,使机器能精准理解人类语言。
transformer一般人不懂,它本来是变压器的意思,这里表示语义转换,最终抓取上下文的含义
【 在 MyRina 的大作中提到: 】
: 笑点这么低?
: 【 在 Barbarossa 的大作中提到: 】
: : 哦哈哈哈哈哈哈哈
: --
:
: FROM 75.181.39.* [美国–北卡罗来纳州–梅克伦堡–夏洛特–斯蒂尔溪 Charter_Communications]
--发自 ismth(丝滑版)
--
FROM 175.6.34.*
你智商有待提高啊,我天天用,上次年终它还给我发了个年终总结
【 在 Barbarossa 的大作中提到: 】
: 你居然不知道gpt,它是生成式预训练转换器,generative pre-trained transformer。
: 大意是把输入文本转换为词元token, 词元转换为词向量。词向量要通过大语言模型预训练来确定它的数值,开始都是随机数字。模型用一种核心技术叫自注意机制加前馈神经网络来训练,训练完了这个词向量能抓取上下文的语义关系,使机器能精准理解人类语言。
: transformer一般人不懂,它本来是变压器的意思,这里表示语义转换,最终抓取上下文的含义
: ...................
--
FROM 75.181.39.*
不矛盾,你天天用,好比天天用灯泡,但不知道灯泡工作原理
【 在 MyRina 的大作中提到: 】
: 你智商有待提高啊,我天天用,上次年终它还给我发了个年终总结
:
: 【 在 Barbarossa 的大作中提到: 】
: : 你居然不知道gpt,它是生成式预训练转换器,generative pre-trained transformer。
: : 大意是把输入文本转换为词元token, 词元转换为词向量。词向量要通过大语言模型预训练来确定它的数值,开始都是随机数字。模型用一种核心技术叫自注意机制加前馈神经网络来训练,训练完了这个词向量能抓取上下文的语义关系,使机器能精准理解人类语言。
: : transformer一般人不懂,它本来是变压器的意思,这里表示语义转换,最终抓取上下文的含义
--发自 ismth(丝滑版)
--
FROM 175.6.34.*
transformer不是变形金刚吗
【 在 Barbarossa 的大作中提到: 】
: 你居然不知道gpt,它是生成式预训练转换器,generative pre-trained transformer。
: 大意是把输入文本转换为词元token, 词元转换为词向量。词向量要通过大语言模型预训练来确定它的数值,开始都是随机数字。模型用一种核心技术叫自注意机制加前馈神经网络来训练,训练
: ..................
发自「今日水木 on iPhone 13 Pro」
--
FROM 223.104.78.*