※ 引述《headender (大大大大ㄚㄚㄚㄚ )》之铭言:
: 我不是法律相关人士,但发表一下我的看法,个人觉得AI拟真色图跟跟二次元不能相提并论
: 二次元色图一直都是开放的,而且已经有数据可以支持它跟儿少色情的犯罪率没什么关系
: 但AI拟真色图是新的东西,没有数据能支持他跟儿少色情的犯罪率没关系
: 这两个不一样的是一个是数据上无关,另一个是还没有数据
: 如果以联合国儿童权利公约,儿童最佳利益的立场来看的话
: 至少也要等到有数据或研究支持AI拟真色图跟犯罪率没关系,再来谈开放AI拟真色图
: 像是如果研究做出来,儿少性犯罪者会都改成看AI色图尻尻,那就会是一个满正当的理由支持AI色图了
: 以现阶段来说,应该还是切割掉AI色图比较简单
加进AI后这问题我觉得很悲观欸。现在将二次元纳管是因为认为有抽象危险,而大家反对
的理由并不是反对保护儿少的法益,而是因为不认同抽象危险的论证:这违背一般人的经
验法则,尽管有假说但是没有支持性的证据。几年前一堆新北鬼父新闻哪个是看二次元本
本引发犯案的?反而对立面的论证也有假说,也有数据可以论证。而且要是认同这个抽象
危险,那套用到更高的法益上的话要怎么反对极端保守派说要禁暴力电玩?
但是加进AI后问题没这么明确了。假设现在AI的能力还不够,使得我们有办法形成某种类
型的图片多是有问题的,其他的不太可能有问题,而且有办法跟绘画的区别,那你用第一
种需要自己举证没问题,第二种和绘画的需要质疑者举证的标准作为大方向可能不会产生
大问题。然而如果AI发展到我们没有办法做出这两种的区隔,例如可以拿卡通风加成人算
拟真,或是拿真实的算出近似现在绘画的成品,那我们能怎么兼顾创作自由和儿少保护?
所有的图都要自证清白?就算大家心理上可以接受,平台/创作者端也没有那么多储存设备
吧?那样一定更多人会支持严酷的执法标准。