Re: [IWIN] 再说一次,不是 "订一个能接受的标准"

楼主: peterturtle (peter_turtle2000)   2024-02-04 21:24:59
AI就是计算机学,计算机学有个特性就是,输入变量一样输出就应该一样
理论上只要记下每个使用过的乱数与输入资料,
就理应可以训练出完全一样的模型,或是画出一个像素都不差的结果。
所以只要模型制作者有保存训练用图库,并提供使用者参考乱数,
AI产图“绝对”可以自证清白,这可比什么破影响力还是可能性科学简单多了。
作者: chrisjohn214 (咪咪奖)   2024-02-04 21:26:00
为了避免大人不开心,大家正在自我审查,你别搅和
作者: wahaha99 (此方不可长)   2024-02-04 21:26:00
没错,只是事情大概会变成这样:你为了训练出萝感, 找了一堆伪萝图来训练,接下来除非是大众熟悉的AV女优,不然你得证实那是伪萝干嘛搞自己
作者: moswu (蚊子)   2024-02-04 21:28:00
听起来他妈超复杂
作者: forever9801 (忆影)   2024-02-04 21:28:00
AI拟真图最大问题就是你少一个立足点可以抗辩2次元你可以说这跟真人根本没办法产生连结 正常判断能力的人都不会认为这是真人拟真图过几年你只能以太完美来觉得他是假的执法单位要怎么判断这是AI还是真人图?以儿少大旗来讲超级逆风 除非你找的到几个不分区立委愿意自杀去挺 不然真的难
作者: HanadaIru (花田伊露)   2024-02-04 21:32:00
简单说支持AI拟真的基本上就是真的恋童癖无误了这种就是专门在拖后腿的
作者: forever9801 (忆影)   2024-02-04 21:34:00
反正你要打完全创作自由大旗 基本上就是不太可能连日本这么挺二次元的 很多网站这个都自肃禁了
作者: moswu (蚊子)   2024-02-04 21:35:00
你都说争议物品了,官府一定觉得我还放出来自找麻烦
作者: Satoman (沙陀曼)   2024-02-04 21:37:00
不行,我同样的dataset同样的设定两次会现不同的结果
作者: moswu (蚊子)   2024-02-04 21:37:00
推这个出去砍头是影响最小的,要100%当儿福联盟吃素的?
作者: Satoman (沙陀曼)   2024-02-04 21:39:00
而且目前的训练机制是完全可以隐藏dataset的
作者: headender (大大大大ㄚㄚㄚㄚ )   2024-02-04 21:39:00
恋童癖都被定义成精神病了 最好还是跟恋童癖切割 看二次元还能说现实没人长这样 看拟真的儿少色情图很难说服别人自己不是恋童癖吧
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:40:00
还有个问题是是使用工具的有责任还是开发模型的有责任
作者: Satoman (沙陀曼)   2024-02-04 21:40:00
AI生成不可能被保护,因为SD的训练图库本身就有问题
作者: forever9801 (忆影)   2024-02-04 21:41:00
AI本身在创作上就已经是颇逆风的东西了 有著作权争议
作者: moswu (蚊子)   2024-02-04 21:43:00
老美最近在烧泰勒丝AI图,看看有什么结果
作者: forever9801 (忆影)   2024-02-04 21:44:00
你要挺AI拟真几乎只有"存在发泄管道"可降低现实犯罪
作者: x2159679 ((● ω ●))   2024-02-04 21:44:00
人不帮模型负责谁要负责?讲白了我现在看到一堆人都想把责任推到模型身上
作者: Zzell (n/a)   2024-02-04 21:44:00
是说大家知道美国最高法院20年前就判取缔虚拟儿色违宪了吗
作者: Zzell (n/a)   2024-02-04 21:45:00
所以美国现在明文上虚拟(非拟真)儿色是合法的
作者: dieorrun (Tide)   2024-02-04 21:45:00
AI你就算是用完全合法的儿童写真 你拿来生色图当然是
作者: forever9801 (忆影)   2024-02-04 21:45:00
这一套说法 但这连数据都没有喔(非一般R18/二次元)
作者: Satoman (沙陀曼)   2024-02-04 21:45:00
美国那边违宪,但是议会又搞了一个新的法来限制
作者: forever9801 (忆影)   2024-02-04 21:46:00
而且挺这个几乎可以直接被贴标恋童癖了
作者: Satoman (沙陀曼)   2024-02-04 21:46:00
所以美国那边会归类到灰色地带去
作者: Zzell (n/a)   2024-02-04 21:47:00
从头到尾每个人的底线就是合法性 社会观感从来不是重点吧
作者: nisioisin (nemurubaka)   2024-02-04 21:47:00
现在就是有罪推论呀
作者: Satoman (沙陀曼)   2024-02-04 21:47:00
SD是底模本身就有问题,你是要怎么証明?
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:47:00
所以这是灰色地带甚至可以说需要一个新定义的领域
作者: forever9801 (忆影)   2024-02-04 21:47:00
法律一大部分就是社会观感的代议士创造出来的喔
作者: x2159679 ((● ω ●))   2024-02-04 21:48:00
所以欧美那边才想搞训练来源公开化啊
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:48:00
AI拟真的虚拟性和二次元图像的虚拟性应该区分吗?
作者: forever9801 (忆影)   2024-02-04 21:48:00
用符合社会利益禁掉这部分立场是绝对100%充足
作者: Zzell (n/a)   2024-02-04 21:48:00
美国明面上就算合法但也没有人敢碰儿色 但他还是合法代表你可以偷偷看 在私人论坛分享不会被抓被下架若真的被起诉还有违宪判例可以拿来吵
作者: nisioisin (nemurubaka)   2024-02-04 21:49:00
现在是都讲“你又不能证明你的训练来源没有问题呵呵”
作者: YaKiSaBa (盐烤鲭鱼)   2024-02-04 21:49:00
主观认定你要怎么自证清白
作者: Satoman (沙陀曼)   2024-02-04 21:49:00
当然不能证明,SD底模本身就来路不明了
作者: x2159679 ((● ω ●))   2024-02-04 21:50:00
所以谁要负责任?
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:50:00
zero-shot的生成技术就不见得会真的用到实际存在图像
作者: Satoman (沙陀曼)   2024-02-04 21:50:00
现在二次元模形用的NAI底模更来路不明
作者: Satoman (沙陀曼)   2024-02-04 21:51:00
不可能抓啊,除非有人真的掀了SD、NAI你知道SD和NAI这两个底模训练成本多高吗 ==
作者: nisioisin (nemurubaka)   2024-02-04 21:52:00
不知道 可以科普一下吗?
作者: forever9801 (忆影)   2024-02-04 21:52:00
反正现实就是这个不切出去妥协 一定全盘皆输
作者: x2159679 ((● ω ●))   2024-02-04 21:52:00
不知道 求科普
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:52:00
而且现在有些训练模型只是拿来预训练 借用别人参数
作者: moswu (蚊子)   2024-02-04 21:52:00
在台湾只要上台面就要有跟儿福家长团体缠斗的准备
作者: Satoman (沙陀曼)   2024-02-04 21:52:00
对使用者来说不可能换,因为那不是个人能训练出来的东西
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:53:00
这种情况下是不需要原始训练图像的
作者: forever9801 (忆影)   2024-02-04 21:53:00
人家用二次元能引导三次元犯罪 你可以用超不像来抗辩
作者: moswu (蚊子)   2024-02-04 21:53:00
结果大家只想要动司长
作者: julianscorpi (各打五十大板流 免许皆传)   2024-02-04 21:54:00
其实司长已经快要突破事务官临界点了 很多这个LEVEL的都会被抓去当政务官培养
作者: moswu (蚊子)   2024-02-04 21:54:00
抗辩很简单啊,版友示范过了:你有证据吗哼哼
作者: Satoman (沙陀曼)   2024-02-04 21:54:00
60万美元,这是SD底模的成本
作者: Hyouri (表里)   2024-02-04 21:54:00
我觉得拿虚拟引导现实出来就是在唬烂 数据也这么显示
作者: moswu (蚊子)   2024-02-04 21:55:00
结果就是儿福联盟推动立法全禁,科科
作者: Hyouri (表里)   2024-02-04 21:55:00
但执法判断困难 还满合理的
作者: Satoman (沙陀曼)   2024-02-04 21:55:00
NAI成本不知道,但是理论上也不是什么便宜玩意儿某种程度上SD还比较有公信力,NAI天杀的谁知道那是怎么练出来的
作者: nisioisin (nemurubaka)   2024-02-04 21:57:00
其实禁拟真大部分人都能接受吧!只是会有跟一般动漫一样的问题?怎么计算拟真度?不然拟真度10% 20% 是不是又打到动漫了?
作者: Zzell (n/a)   2024-02-04 21:57:00
聊天悲观就算了 实际上先进国家都有守住最后言论自由的底线
作者: Satoman (沙陀曼)   2024-02-04 21:57:00
但二次元AI社群实际就是靠NAI这个训练集不明的东西在生图英国就没有,除非你认为英国不算先进
作者: dieorrun (Tide)   2024-02-04 21:58:00
我只能说拟真这条比什么幼态实际多了
作者: Satoman (沙陀曼)   2024-02-04 21:58:00
现在卫道团体和保护司就是用英国当先进国家标准在搞
作者: Zzell (n/a)   2024-02-04 21:58:00
台湾最爱跟的美国直接做出违宪判例 欧美保守派也很凶捏
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:58:00
对 禁拟真的问题点就是在又要定义怎么样的拟真出局
作者: oasis404 (绿洲404)   2024-02-04 21:58:00
韩国也没有啊,甚至都盖网络长城了
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:59:00
我印象换脸法案能处理是因为真的像到某人而侵犯权益
作者: oasis404 (绿洲404)   2024-02-04 21:59:00
算了,还是不要先自行妥协好了,这篇看起来验证方法还算可行
作者: macocu (傻傻的匿名)   2024-02-04 21:59:00
拟真切割了,某方面就自相矛盾了,然后界线也有问题
作者: Zzell (n/a)   2024-02-04 21:59:00
其实那个保护司官员很明显就是暴走等级的个人言论
作者: nisioisin (nemurubaka)   2024-02-04 21:59:00
除非国际普遍立法要公开训练来源 要不然永远都会有问题
作者: Satoman (沙陀曼)   2024-02-04 21:59:00
这次就是小玉换脸和之前某次偷拍论坛让修法加速
作者: Zzell (n/a)   2024-02-04 22:00:00
这种法界可以吵很久的东西他一句话不会有太大影响
作者: oasis404 (绿洲404)   2024-02-04 22:00:00
可是人家是司长耶不是小咖
作者: Satoman (沙陀曼)   2024-02-04 22:00:00
然后二次元创作被扫到台风尾+偷袭
作者: moswu (蚊子)   2024-02-04 22:00:00
生成幼女色情就下去啊,然后问题回到什么是色情
作者: macocu (傻傻的匿名)   2024-02-04 22:01:00
举例来讲,A片降低性犯罪,那拟真萝也应同理
作者: oasis404 (绿洲404)   2024-02-04 22:01:00
就看看会不会引起反对虚拟入罪的学者注意吧
作者: macocu (傻傻的匿名)   2024-02-04 22:02:00
但是拟真,就暗示的那人确实对现实形象人物会有性欲
作者: moswu (蚊子)   2024-02-04 22:02:00
A片降低犯罪,那除罪化肯定没问题吧现实就不是这样运作的更不用讲还扯上幼女
作者: forever9801 (忆影)   2024-02-04 22:04:00
我只能说 欧美法庭片有看过吧 你认罪关2年不认罪关25
作者: rabbit61677 (rabbits)   2024-02-04 22:05:00
这没什么好争的,成人色清是合法的,儿童色情不合法
作者: forever9801 (忆影)   2024-02-04 22:05:00
不认罪就是拿那个拟真AI举言论自由大旗要挡洪水陪审团不会有人采信你的说词的
作者: macocu (傻傻的匿名)   2024-02-04 22:06:00
阿确实,回归原则,儿色不合法
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:07:00
应该说 AI拟真/AI二次元生成图像/二次元绘图 这三项他们应该绑一起看 还是AI直接再分一区?
作者: rabbit61677 (rabbits)   2024-02-04 22:08:00
所以用成人片来举例不对,本来就不能有儿少色情片
作者: forever9801 (忆影)   2024-02-04 22:08:00
这项目说到底其实没有什么AI不AI 重点是拟不拟真AI只是达到拟真最容易的手段
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:08:00
再来就是要用什么论述去区分它们或是归为一类
作者: rabbit61677 (rabbits)   2024-02-04 22:09:00
而且儿少色情在社会伦理道德上绝对是不行的
作者: forever9801 (忆影)   2024-02-04 22:09:00
拟真就是最接近儿少38条的图画
作者: moswu (蚊子)   2024-02-04 22:09:00
结果搞到最后拟不拟真还是得靠iwin就好笑了
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:09:00
我会觉得AI可能要再分一类是因为拟真度会高到起争议的
作者: rabbit61677 (rabbits)   2024-02-04 22:10:00
就以前根本没拟真AI图,所以没人说要管虚拟顶多是猥亵物色情,现在已经造成执法困难才开始管
作者: x2159679 ((● ω ●))   2024-02-04 22:10:00
倒不如说拟真反而要证明这张不是用拍的吧?证明的责任在拟真那边啊
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:10:00
所以AI会导致虚拟和真实分开的论述变的很难成立
作者: dieorrun (Tide)   2024-02-04 22:11:00
就说了拟真这条线比讨论至今所有的标准明确多了
作者: forever9801 (忆影)   2024-02-04 22:11:00
你就算上法庭也是法官自由心证判定这算不算
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:11:00
证明一个不存在的东西不存在 我还真想不到怎么证明==
作者: rabbit61677 (rabbits)   2024-02-04 22:12:00
其实双方都很难证明什么,AI拟真也可能变成类似deepfake的案件,如果刚好有人跟AI图长很像
作者: dieorrun (Tide)   2024-02-04 22:12:00
就算还是有心证的空间 至少偏差太多大家看的出来
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:13:00
deepfake还找的到很像的人 如果这个人不存在怎么处理?
作者: x2159679 ((● ω ●))   2024-02-04 22:13:00
这种当事人都会把责任推到ai上啊
作者: rabbit61677 (rabbits)   2024-02-04 22:14:00
即使美系你都不会觉得是真人,日系更不用说
作者: forever9801 (忆影)   2024-02-04 22:14:00
反正 理想就是底线压在拟真度 用一些拟真度百分比的
作者: x2159679 ((● ω ●))   2024-02-04 22:14:00
你说,这个人不存在是因为ai能产生不存在的东西
作者: cloudwolf (狼)   2024-02-04 22:14:00
用虚拟伤害人,还用不到"拟真"。只要把特色表现出来,
作者: x2159679 ((● ω ●))   2024-02-04 22:15:00
现在大家都是把责任推到“ai的能力”上
作者: moswu (蚊子)   2024-02-04 22:15:00
你要我证明这张很像照片的照片是假的,凭什么?
作者: cloudwolf (狼)   2024-02-04 22:15:00
就可以办到。比如在设计一个秃头的议员,就算画的不像
楼主: peterturtle (peter_turtle2000)   2024-02-04 22:16:00
所以不是说了吗,算图必然有重复性,同样的输入必有同样的输出,你要保留自己无罪的证据啊。然后不给重复输出的模型就别用,用了结果上法庭就自己吞吧,食神不就是栽在有一批牛肉好便宜上的。
作者: Hyouri (表里)   2024-02-04 22:16:00
“虚拟创作导致现实犯罪”这绝对是狗屁 再真都一样但说太真导致执法困难不知道这真的还假的 那有可能
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:16:00
拟真是个方向 但又高机率回到心证 因为拟真也有程度
作者: x2159679 ((● ω ●))   2024-02-04 22:17:00
对啊就是这样,使用者有能力证明生成过程就可以啊
作者: cloudwolf (狼)   2024-02-04 22:17:00
提出质疑者提出证明是原则,实务上有时会将举证责任改
作者: dieorrun (Tide)   2024-02-04 22:17:00
绝对不可能没有心证这件事啦
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:18:00
对 但心证的前提还是会有个标准 唉 真的头很痛==
作者: x2159679 ((● ω ●))   2024-02-04 22:18:00
“提出质疑者提出证明是原则”这点实务上不可能行得通
楼主: peterturtle (peter_turtle2000)   2024-02-04 22:18:00
大原则就是举证责任在轻松的那边
作者: rabbit61677 (rabbits)   2024-02-04 22:18:00
重点是如果几年后AI画出来真的跟照片一模一样而且你也分辨不出来,警方要如何举证,这是社会问题
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:19:00
问题我前面提过 如何证明不存在的东西不存在?
作者: moswu (蚊子)   2024-02-04 22:19:00
保证最后还是回到心证啦,first time?
作者: x2159679 ((● ω ●))   2024-02-04 22:19:00
这会变成社会问题,所以到时候就会是管ai这也是这次议题必须切割ai的原因
作者: rabbit61677 (rabbits)   2024-02-04 22:19:00
当AI图跟照片完全分不出来的时代到来,从前会被定罪的真实儿少罪犯,变成拿他们没有办法的话
作者: x2159679 ((● ω ●))   2024-02-04 22:20:00
AI拟真已经踩到社会不可能容许的那条线了
楼主: peterturtle (peter_turtle2000)   2024-02-04 22:20:00
所以才说算图有重复性,你真的是用算出来的话同样的数据灌下去一个像素的RGB都不会有任何差别,两张图相减一定是一片零,这就是没犯罪的证据,反之做不到就是有罪
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:21:00
踩线是因为过于真实 但还是不存在实际对象
作者: moswu (蚊子)   2024-02-04 22:21:00
官府怕麻烦,最后还是个换名iwin来处理
作者: rabbit61677 (rabbits)   2024-02-04 22:21:00
那网络传播存起来的人呢?儿少不是只抓作者
作者: dieorrun (Tide)   2024-02-04 22:21:00
你用AI产儿色 至少会真人儿童的图吧 就算那张图是合法的你产成色图实际上不就在剥削那名儿童
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:22:00
以最新的技术来说还真不见得需要真实儿少图像就能生成
楼主: peterturtle (peter_turtle2000)   2024-02-04 22:22:00
你说呢,使用来路不明的管制药物有没有罪?
作者: rabbit61677 (rabbits)   2024-02-04 22:22:00
如果真实犯罪者说他是网络抓的图,除非AI图有不可窜改的证明,但说到底有机制就会有人破解
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:23:00
生成图像的技术也在进步的 要抓训练来源更难抓
楼主: peterturtle (peter_turtle2000)   2024-02-04 22:23:00
要自行破坏证据怪我囉
作者: dieorrun (Tide)   2024-02-04 22:24:00
既然很难判断要马像模型枪有规定 要马就禁掉 不就这样
作者: rabbit61677 (rabbits)   2024-02-04 22:24:00
如果真的要从技术上说产图没罪,但散播绝对是有罪的
楼主: peterturtle (peter_turtle2000)   2024-02-04 22:25:00
就像你主张这片地是你的、又没有地契、在政府那边也没有文件,你觉得法院会放你过吗?
作者: rabbit61677 (rabbits)   2024-02-04 22:26:00
虽然有道德瑕疵,但你自己私底下不管做什么只要全世界没有人知道,基本上就没有法律会制裁
作者: leptoneta (台湾高山族自治区书记)   2024-02-04 22:27:00
所以那个衍算法是犯罪工具囉 更惨
作者: rabbit61677 (rabbits)   2024-02-04 22:28:00
可是就这个问题来看,就变成你是源头无罪,散播出去拿到的人有罪,所以作者即使产图无罪却不可能无罪只是会有其他法条去办而已,而且绝对是社会共识
作者: dbr623 (高机动钢球)   2024-02-04 22:28:00
AI 应用现在就是未定灰色地带了,各国都还没明显定论二次元宅泥菩萨过江还要多渡个 AI 是嫌通关难度太低吗
楼主: peterturtle (peter_turtle2000)   2024-02-04 22:29:00
人家就能证明自己无罪啊,看证据说话
作者: clarkyoona (clarkyoonazang)   2024-02-04 22:30:00
来了一个不懂transformer模型的
作者: leptoneta (台湾高山族自治区书记)   2024-02-04 22:30:00
检察官拿一个儿少色图 经由不明AI算出类似的图就够了
作者: rabbit61677 (rabbits)   2024-02-04 22:31:00
假设像你讲的产图无罪,那就像是你有持枪证合法持枪但是你把枪提供给没有持枪证的人,那你还是有罪只是犯的不是非法持枪而已,而且说到底如果没有散播出去,本来就没有需要什么证明好吗
作者: dbr623 (高机动钢球)   2024-02-04 22:33:00
连训练数据库都没公开是要证明什么,源头就黑盒子
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:33:00
二次元这次搞不好就是因为AI生成才扫到台风尾勒==
作者: totomo168 (桃子)   2024-02-04 23:42:00
谁能论述一个人电脑里有几T的AI真人萝天天对的AI真人萝打枪,大家支持我创作自由<<谁??还有谁支持????<<硬要撞死在这上??不要骗自己电脑里没事生几千张ai真人萝图是纯欣赏啊,骗谁??谁会买单??怎么有人就要一头撞死在这上面??当然你自己关起来谁也不真的没事,那被抓就是有扯到散播,那更out了直接爆破

Links booklink

Contact Us: admin [ a t ] ucptt.com