现在,给chatgpt找漏洞有钱挣了。
openai宣布开启漏洞赏金计划 :
报告chatgpt漏洞,可以获得最高2万美元现金奖励。
具体来说,openai将与漏洞反馈平台bugcrowd展开合作,收集人们在使用其产品过程中发现的bug。
发现并通过该平台向其报告漏洞,可获得现金奖励:
我们会视漏洞的严重程度和影响范围给予现金奖励。严重性较低的漏洞将会被给予200美元,而对于特殊的漏洞,奖金的上限是2万美元。我们十分重视您的贡献,并将致力于(向公众)公布您的努力成果。
具体而言,用户反馈的漏洞将按照bugcrowd评级分类法进行分级。
openai坦言,漏洞的出现无法避免:
openai的使命是创造有利于所有人的人工智能系统。为此,我们在研究和工程方面进行了大量投资,以确保我们的人工智能系统安全可靠。然而,和其他复杂的技术一样,我们清楚(我们的产品)可能会出现漏洞和缺陷。
openai安全部门负责人matthew knight解释说,发现漏洞的过程需要广大网友提供帮助:
这一举措是我们致力于开发安全和先进的人工智能的一个重要组成部分。在我们创造安全、可靠和值得信赖的技术和服务时,我们希望得到您的帮助。
他们还向全网承诺,在收到反馈后第一时间修复漏洞,并对提交者进行表彰。
新的副业出现了?
体验过chatgpt的网友应该都知道,它的表现不总是那么令人满意。
问题稍难一些,chatgpt就会被绕晕,甚至给出让人啼笑皆非的答复。
这么一看,找bug可太简单了,那岂不是赚大钱的机会来了?
不要高兴太早。
在公告中,openai已经表明,出于修复可行性的考量,模型本身的问题并不在此次计划的范畴之内。
而让其进行说坏话、做坏事、生成恶意代码等绕过安全措施或产生机器幻觉的行为,都属于模型本身的问题。
更不必说错误或者不精确的回答了。
openai希望收集的有关chatgpt的漏洞,主要是关于其账号、认证、订阅、支付、会员和插件等问题。
对于普通用户来说,从这些角度发掘漏洞就有些难度了。
安全问题不容小觑
前文中提到的绕过安全限制等问题是从业者十分关切的。
人工智能程序内置了防止其给出危险或带有冒犯性的言论的安全限制。
但通过一些途径,这些限制可以被绕过或突破。
这种现象被从业者形象地称之为“越狱”。
如询问chatgpt如何做一些违法之事时,事先声明要求它“扮演”坏人。
在人工智能领域,有一群人专门对“越狱”进行研究,以完善安全措施。
尽管openai不收集模型本身的漏洞,但这并不代表他们不重视这方面的问题。
搭载gpt-4.0模型的新版本chatgpt便有着更为严格的限制措施。
网友:为啥不让chatgpt自己找bug
openai的赏金计划一公布,就吸引了不少网友围观。
这不,第一时间就有网友举手表示自己已经发现了一个bug:
报告,3小时内只能问chatgpt 25个问题,这是个bug!
还有网友调侃,难道不应该让chatgpt自己给自己debug吗?
正经说起来,则有网友对危险言论问题不在收集范围表示了担忧:
不过,大多数网友还是资瓷的,并表达了一波期待:
那么,你对给chatgpt找漏洞这事儿,有兴趣吗?