在人工智能技术狂飙突进的时代,我们的私密对话还安全吗?近期,去中心化加密通讯应用Session的高管发出警示,指出AI、用户隐私意识薄弱与监管压力,正构成对私人通讯未来的三大核心威胁。据市场分析,随着ChatGPT等AI应用数据泄露事件频发,加密通讯领域正面临前所未有的安全挑战。
Session技术基金会主席Alex Linton向媒体指出,人工智能在设备端分析并存储信息的能力,正在制造“巨大的隐私与安全问题”。他警告称,如果AI被集成到操作系统或更高层级,它可能完全绕过你通讯应用的加密措施,将信息输送至一个“黑箱AI”中,其后续用途将完全失控。值得注意的是,当立法者向率先推广该技术的科技巨头寻求解决建议时,问题往往会被加剧。
当前市场背景是,欧盟试图通过《聊天控制》法案强制扫描私人信息,已遭到隐私倡导者的强烈批评。与此同时,AI与大数据引发的隐私危机正在全球蔓延。例如,ChatGPT的创造者OpenAI上月披露,其第三方数据分析提供商遭攻击,导致部分用户数据泄露,这些数据可能被用于网络钓鱼或社会工程学攻击。该聊天机器人一个已停用的功能,甚至被发现曾在开放网络上共享聊天记录。
Session联合创始人Chris McCabe补充道,许多人并未意识到自己的在线数据如何被存储、利用,也不清楚科技公司大规模数据收集的危险性。他指出,数据可被用于“通过广告等方式操纵人们,让他们基于自身数据做出甚至自己都未意识到或不情愿的行为”。投资者应关注的是,数据隐私意识与合规工具正成为新的市场焦点。
分析师指出,对于构建加密通讯工具的企业而言,正面临来自多法域拟议或已颁布法规的巨大压力,以及随之而来的负面舆论关注。然而,挑战中也孕育着机遇。以Session为例,其创立初衷正是为了有意义地运用去中心化技术,对抗隐私相关问题。结尾预测,随着用户隐私意识的觉醒和Web3技术的成熟,真正去中心化、抗审查的私密通讯工具,或将在未来三年内迎来爆发式增长,成为数字时代的基础设施之一。