- 主题:请教下:你们的TC是怎么样的使用方式?
是呀,不象以前在学校时
真的是勤快,有时为了接个小活,真的通宵达旦地写
挣个几千块,能快乐一个星期
【 在 anhnmncb 的大作中提到: 】
: 标 题: Re: 请教下:你们的TC是怎么样的使用方式?
: 发信站: 水木社区 (Sat Nov 29 14:50:50 2025), 站内
:
: 理解,深有体会……
: 我那一堆vimscript都成shi山了,也没时间没动力去优化,现在想改功能都是直接另外增加了,原功能函数就放那烂着了
:
: 【 在 happyTC 的大作中提到: 】
: : 的确,有好些小bug,其实有些功能也该增加一点点
: : 只是现在的我,太懒了,真的难有动力去苦代码
: : 并且好多年前写的,有时候要改个小bug,自己写的都得认真读上两遍,才明白当初是如何实现的
: : ...................
:
: --
:
: ※ 来源:·水木社区 mysmth.net·[FROM: 14.19.151.*]
--
FROM 113.89.10.*
就是当文件管理器用,不对系统做修改
感觉这样已经很好了
【 在 mthpe 的大作中提到: 】
: 我这儿只是偶尔打开来使用,比如批量改名、大量删除或转移文件。
: 平时还是用默认的explorer作shell,感觉应该有更好的使用tc的方式才对,特请教
--
FROM 120.244.6.*
主要用于文件整理,不太用高级功能。
平常使用fzf+ranger在终端下管理文件,整理文件还是tc用着顺手。
【 在 nighthawk 的大作中提到: 】
: 就是当文件管理器用,不对系统做修改
: 感觉这样已经很好了
--
FROM 115.171.26.*
那你有没有整理过大量重复文件?
怎么做?
我能做的是:先把文件统一放一起,利用系统的文件名不重复特性来去重(tc的去重不会用)
【 在 latnok 的大作中提到: 】
: 主要用于文件整理,不太用高级功能。
: 平常使用fzf+ranger在终端下管理文件,整理文件还是tc用着顺手。
--
FROM 36.112.207.*
这是一个很好的问题,我没有这需求,不过后面有时间可以尝试一下
刚刚我朋友说可以上传到百度网度,他那里有去重的功能,可行。但是感觉怪怪的:)
【 在 mthpe 的大作中提到: 】
: 那你有没有整理过大量重复文件?
: 怎么做?
: 我能做的是:先把文件统一放一起,利用系统的文件名不重复特性来去重(tc的去重不会用)
: ...................
--
FROM 115.171.26.*
。。。。
好多东西都是好不容易从X度上挂下来的,还上传上去?这个是最馊主意,没有之一
而且去重好像是最高的SVP才给的功能吧?一个小问题,让花200+,他是X度的金牌销售吗?
【 在 latnok 的大作中提到: 】
: 这是一个很好的问题,我没有这需求,不过后面有时间可以尝试一下
: 刚刚我朋友说可以上传到百度网度,他那里有去重的功能,可行。但是感觉怪怪的:)
--
FROM 36.112.207.*
而且,我觉得那个不比tc的先查重,再增加选择的功能强
主要是感觉不太理解tc的这个功能原理,所以还没敢用
【 在 mthpe 的大作中提到: 】
: 。。。。
: 好多东西都是好不容易从X度上挂下来的,还上传上去?这个是最馊主意,没有之一
: 而且去重好像是最高的SVP才给的功能吧?一个小问题,让花200+,他是X度的金牌销售吗?
: ...................
--
FROM 36.112.207.*
去重肯定用everyting listary之类的文件更方便
在 Everything 的搜索框中输入 dupe:,然后按回车。这将列出所有重复的文件。
然后按大小排序,把大文件检查下
你也可以根据文件类型进行搜索,例如输入 dupe:*.doc 来查找重复的 Word 文档。
【 在 mthpe 的大作中提到: 】
: 那你有没有整理过大量重复文件?
: 怎么做?
: 我能做的是:先把文件统一放一起,利用系统的文件名不重复特性来去重(tc的去重不会用)
: ...................
--
FROM 39.165.250.*
但everything查重后如何批量选中重复文件然后删除?
tc倒是可以,不过它的后续操作有点看不懂
listary没试过,它好像不支持dupe之类的命令吧?我平时主要是拿它来当启动器了
【 在 prog2000 的大作中提到: 】
去重肯定用everyting listary之类的文件更方便
在 Everything 的搜索框中输入 dupe:,然后按回车。这将列出所有重复的文件。
然后按大小排序,把大文件检查下
你也可以根据文件类型进行搜索,例如输入 dupe:*.doc 来查找重复的 Word 文档。
【 在 mthpe 的大作中提到: 】
: 那你有没有整理过大量重复文件?
: 怎么做?
: 我能做的是:先把文件统一放一起,利用系统的文件名不重复特性来去重(tc的去重不会用)
: ...................
--
FROM 36.112.192.*
对我来说,重复文件并不多
如果批量的话,可能要结合其他软件或脚本了
【 在 mthpe 的大作中提到: 】
: 但everything查重后如何批量选中重复文件然后删除?
: tc倒是可以,不过它的后续操作有点看不懂
: listary没试过,它好像不支持dupe之类的命令吧?我平时主要是拿它来当启动器了
: ...................
--
FROM 39.165.250.*