无标题无名氏No.67969555 只看PO
2026-01-30(五)00:53:47 ID:aEQh6hJ 回应
网安肥睡前迷思( ゚∀。)
对于语言大模型,是否存在某种“木马”,以某种隐蔽的方式添加进公开发布的数据当中,使自动爬虫爬取到这一节数据,喂给大模型之后会让大模型生成无效内容…
无标题无名氏No.67969596
2026-01-30(五)01:02:52 ID: aEQh6hJ (PO主)
进一步发散下思维,现在ai逆向分析的本领已经十分高强
能否实现某种特定“花指令”,使其一遇到这段特定汇编代码段就“发疯”,生成错乱内容或者ai幻觉,达成干扰逆向分析的目的
无标题无名氏No.67969623
2026-01-30(五)01:08:35 ID: Q3RpJND
某国内知名论坛的官方近几年就在大量投放弱智ai,试图通过灌水提问利用用户训练模型,正义群众的已读乱回把ai成功搅成一坨大的σ`∀´)
无标题无名氏No.67972490
2026-01-30(五)10:40:15 ID: aNdkTOP
根据神经网络的底层原理来说,其实有非常大的概率,会存在若干个(而且可能是大量)人类看起来毫无意义的“魔法输入”(比如aNdkTOP),能够让模型在处理后输出一个有意义的结果( ゚ 3゚)
无标题无名氏No.67974180
2026-01-30(五)11:47:45 ID: VismPnK
>>No.67969612
有的哥们有的,之前参加数据安全竞赛就有个板块专门是数据投毒,好久不搞数安忘差不多了。
比如外卖app评论爬虫,它每个关键词都有一定权重,可以理解为出现某个词就大概率是好评/差评。打个比方,“好吃”可能是1,“还行”可能是0.2,“差”可能是-1…然后我们数据投毒就是让他的这个权重彻底乱掉,比如我大量注入“差”但是标记为好评,这样他就会跟原本的结论出现偏差。
得分是按前后偏差值计算的,偏差越大分越高。偏差最大的做法就是让权重全反,正的变负负的变正。
无标题无名氏No.67974971
2026-01-30(五)12:47:54 ID: aEQh6hJ (PO主)
>>No.67972490
类似两个天差地别的字符串经过哈希运算,正好被判断成为一个结果是吗( ゚∀。)