强大的人工智能(AGI)的出现似乎不再像科幻小说中的东西——它越来越成为我们的现实。
自然,这个热门话题已经影响了Web 3.0领域,促使公司和投资者关注人工智能集成。
还记得最初的加密货币繁荣吗?当时每一家科技公司都想将区块链添加到他们的技术堆栈中,这往往是不必要的?
这就是人工智能正在发生的事情。
即使是最近的重大事件,如ETHD丹佛或Token2049,以前只关注Web 3.0,也正在向涉及人工智能和Web 3.0结合的主题协同过渡。
我对此毫不犹豫,但作为一名科幻迷,我思考了很多人工智能带来的实际挑战,以及我们如何保护自己免受未来的影响,未来看起来更像电影《前Machina》,而不像《她》
我将分享我对将人工智能集成到Web 3.0的一些想法,以及我们如何防止可能出现的一些问题。
这可能不会在明天或明年发生,但这是我们应该为之做好准备的未来。
人工智能模型的伦理偏见会影响人们的信仰吗
关于“人工智能控制世界”,首先想到的是模型的固有偏见——谁训练它以及他们使用什么数据。
如果一个人用一些本质上有问题的观点或观点来训练他们的人工智能,会发生什么?
这会被用来影响大规模的意见吗?它能被用来洗脑年轻人吗?
如果它在做这件事的时候被训练得非常微妙呢?
在这种情况下,权力下放可以发挥双重作用。
一方面,将区块链技术融入人工智能模型将使一个群体更难控制和操纵系统。
但与此同时,如果这种权力下放处理不当,可能会加剧挑战,并容易损害网络。
从X(前身为推特)目前的话语水平来看,另一个不断出现的担忧是,只有少数组织会控制这些人工智能模型中建立的偏见。
像Meta这样的行业巨头强调了开源模型的必要性,同时保留了自己的控制权。
甚至OpenAI最初也是一家开源公司,后来变得一点也不“开放”
通过允许任何人微调人工智能模型,我们可以培养各种偏见和观点。
这种多样性可以给人们更多的选择,防止少数强大的群体主导人工智能的发展,从而促进更公平的技术未来。
当我们探索人工智能和Web 3.0的融合时,了解这些技术如何相互增强至关重要。
人工智能控制人类
随着人工智能系统越来越融入日常生活,控制和保护个人数据成为另一个主要问题。
在这种情况下,权力下放可能非常方便,有可能将控制权交还给人们。
然而,将人工智能与区块链相结合也有风险。
我们如何才能确定人工智能的行为符合人类利益?
我们如何才能确保它们的编程方式没有偏见,并且只是为了支持人类?
考虑到这些挑战,完全依赖编程系统是不可行的,因为代码也可能有偏见。
编程决策有时也会带有偏见,尤其是当团队不多元化或模型训练所用的数据有偏差时。
尽管人工智能和区块链等技术有很多好处,但我们仍然需要人工监督,以确保一切都能公平运行。
在权力下放的环境中,可以通过共享治理模式来实施人的监督。
有关培训数据、模型更新和道德准则的决定可以通过不同利益相关者群体之间的共识做出。
该小组可能包括开发人员、伦理学家、用户代表和第三方审计员。
他们将共同监测人工智能行为,并在必要时进行干预,确保人工智能系统与更广泛的人类价值观和道德标准保持一致。
这种治理模式不仅利用了权力下放的好处,还降低了风险,确保这项技术增强而不是破坏人类福利。
你对人工智能进化的主要考虑是什么?
戴安娜·金是一名自由记者、营销人员和公关专业人士,对Web 3.0的革命性世界有着浓厚的兴趣。作为治理进步的热心倡导者,戴安娜为Q协议做出了贡献,努力塑造去中心化系统的未来。