2026 年人工智能和隐私:未来的挑战
如今,人工智能不再是科幻小说;它几乎融入了我们在线生活的每个角落。从推荐引擎和智能助手到面部识别和预测分析,人工智能系统正在收集、处理和处理比以往更多的有关我们的数据。
人工智能的使用正在上升。根据最近的统计数据,66% 的人(即 3.78 亿人)定期使用人工智能,50% 的公司目前正在使用人工智能。这很方便,对吧?然而,它也让我们的隐私处于危险之中。随着深度学习的进步,人工智能推断敏感信息、分析我们、甚至预测我们未明确分享的行为的能力正在快速增长。
本文深入探讨了人工智能面临的最大隐私挑战,并列出您作为用户、开发人员或政策制定者可以做什么。我们还将重点介绍在快速发展的数字世界中保护自己的重要步骤。
什么是人工智能(AI)?
人工智能(AI)是最先进的,计算机科学的高级分支,专注于设计和构建执行通常与人类智能相关的任务的机器和引擎。这种计算机科学远远超出了编写代码的范围,需要采用包括机器学习和深度学习在内的多学科方法。
人工智能旨在创建模仿或改善人类活动的模型,特别是智力活动.它包括很多东西,从自动驾驶汽车到生成式人工智能创作工具。人工智能正在成为当今生活的主要内容,引起了商界的广泛关注。
人工智能:优点和缺点
人工智能可以处理大量数据,这些数据会让人类研究人员不知所措并陷入瘫痪。经过机器学习训练的人工智能模型可以快速扫描这些数据并将其转化为有用的信息。在我们撰写本文时,人工智能的主要问题是处理完成良好的人工智能模型所需的大量训练数据的成本很高。
人工智能的优势
- 擅长注重细节的工作:人工智能在诊断某些类型的癌症(乳腺癌、黑色素瘤)方面非常有效,甚至比一些人类专家更聪明。
- 减少数据密集型任务的时间:需要对大型数据集进行有效分析以快速得出有价值的结论的行业越来越多地转向人工智能模型。银行、证券、制药和金融部门就是很好的例子。例如,人工智能擅长检测贷款申请中的欺诈行为。
- 节省劳动力并提高生产率:它可以使所有活动更有成效,节省时间和其他资源并成倍增加产出。
- 提供一致的结果:尽管它们与人类交互相似,但它们仍然是机器,因此它们可以一致且持续地执行。
- 可以通过个性化提高客户满意度:人工智能可以将个性化提升到史诗般的水平,从而提供前所未有的用户满意度。
- 人工智能驱动的虚拟代理始终可用:他们不需要睡眠、食物、休息、假期或任何形式的干扰。
人工智能的缺点
- 非常贵
- 需要深厚的技术专长。
- 构建人工智能工具的合格工人很少。
- 它的好坏取决于训练数据。
- 不能一概而论。
- 抑制人类工作。
强人工智能与弱人工智能
人工智能有两种形式,这对于我们试图尽可能最好地理解它很有帮助。
- 虚弱的:它也被称为狭义人工智能,是一种只会一招的小马。它被设计和训练只做一件事。工业机器人是最明显的例子。
- 强人工智能: 它也被称为通用人工智能(AGI),它描述了试图复制人脑认知能力的编程。它可以使用模糊逻辑等技术来寻找不熟悉问题的解决方案,并将其从其他知识领域引入。这个想法是让这种类型的人工智能通过传奇的图灵测试。
人工智能示例
人工智能技术固有的多功能性使其能够采取人们所能想象到的多种形式,从现在非常流行的聊天机器人到可穿戴小玩意。让我们看看当今使用的一些更常见的人工智能示例:
1. 聊天GPT
这是一个人工智能模型公众可以使用的语言,作为聊天机器人,能够与用户“对话”并提供不同类型的书面文本以及计算机代码。它于 2022 年 11 月广泛提供,由开放人工智能。它也可以作为 iOS 应用程序使用。
尽管它很受欢迎,但许多国家都喜欢意大利因隐私问题而禁止使用.
2.谷歌地图
Google 地图可获取智能手机的 GPS 数据和有关交通事故或建筑工地等事件的用户报告,以查看许多城市的人流并找到最快的街道导航方式。
3. 智能助手
这些示例包括 Alexa、Siri 和 Cortana。他们使用“自然语言处理(NLP)”听取用户的指示并在其能力范围内遵循它们。他们可以设置警报、执行搜索、控制房间的灯光以及回答一般问题。随着助手更快地了解用户的偏好,体验会得到改善。
4.Snapchat过滤器
ML 算法允许 Snapchat 过滤器区分图像中的主体和背景之间的差异、跟踪面部运动并调整屏幕以准确跟随用户。
5.自动驾驶汽车
深度神经网络形式的深度学习可以创建自动驾驶汽车,这样它们就可以“看到”周围的物体,识别交通标志,并完成移动所需的所有事情。
6.可穿戴设备
可穿戴玩具在用户中迅速普及,将深度学习模型应用于了解每个用户的健康状况,估计血糖水平、动脉压、心率等等。他们还可以使用用户过去的医疗数据来规划未来。
7. 归零
DeepMind 的MuZero 是当前领先的候选者之一成为第一个真正的人工智能。它学会了在没有指令的情况下玩游戏,从经典的 Atari 游戏到国际象棋。这是通过纯粹的蛮力和不懈的毅力做到的。
人工智能和隐私:挑战
人工智能模型可能会受到推理攻击,攻击者查询模型以推断特定个人的数据是否在其训练集中。更先进的是模型反转,攻击者可以从模型本身重建敏感训练数据(例如面部)的可识别版本。以下是有关人工智能和隐私的一些日益增长的担忧:
1. 不关心版权和知识产权法
人工智能模型需要数据进行训练,并且他们在能找到的地方得到它。因此,他们会扫描每个网络角落以查找有用的材料,而不顾版权和其他知识产权方面的考虑。因此,许多人工智能供应商正在使用大量受版权保护的材料,无论是艺术品还是文本,未经所有者知情或同意。
然后,相同的数据训练重新训练、微调并反馈给人工智能模型。直接查相关材料就不能查到失主吗?我们听到你问。好吧,不,你不能。当前的模型已经变得如此复杂,以至于无法再将训练信息追溯到源头,至少具有一定程度的信心和安全感。
在某一点之后,即使是开发人员也无法知道模型的训练过程中包含哪些材料。
当用户创建提示以使用人工智能模型来完成他们所执行的任何任务时,这些提示总是有可能在未来训练模型。如果毫无戒心或草率的用户向系统提供敏感信息,这可能会成为问题.
不久前,三星雇佣的三位天才提供敏感的企业信息有关该公司的信息,请访问 ChatGPT。以任何有意义的标准来看,它都成了信息泄露,现在它可以成为语言模型的培训材料。虽然许多人工智能供应商正在尝试解决这个问题,但无法知道他们将来是否会设法将私有数据排除在训练数据集中之外。
3、缺乏监管和保障
政府和立法总是远远落后于技术。这并不奇怪。然而,一些政府正在向前迈进,尝试制定人工智能法规和安全使用指南和政策。然而,我们还远没有制定任何重要的标准来让人工智能供应商对其创建、训练和发布模型的行为负责。
一些人工智能供应商已经感受到了所谓的知识产权侵犯、模糊的数据收集过程以及更加神秘的培训的热度。然而,就目前的情况来看,每个供应商都保留决定其模型的一切的权力,从数据存储到安全性和用户规则,而无需外部输入。
4. 滥用生物识别数据
人脸识别、指纹、语音识别等生物识别元素正在缓慢但肯定地成为许多设备中的身份验证令牌,而不是传统密码。而这还不是开始。公共监控摄像头可以快速整合人脸识别和其他生物识别标记来扫描个人以进行快速识别。
生物识别认证方便实用。它在所有可能的方面都完全不受监管,更不用说人工智能公司一旦掌握了这些数据就可以提供这些数据。这些数据正在被人工智能收集、存储和分析,无法想象它将如何使用.
5. 隐秘的元数据收集
假设您作为用户在万维网上与广告、广告进行交互抖音短视频、社交媒体帖子或任何其他网络活动,就像您每天所做的那样。这种交互创建了元数据的踪迹。将其与您的搜索历史记录和有关您的数字生活的其他信息放在一起。人工智能将有许多新元素来更好地了解你,设计出迟早会影响到你的目标策略.
这种元数据收集在数字体验中很常见,因为它已经持续了多年。然而,人工智能有潜力对其进行涡轮增压,并显着增加其发生的规模和解释。它可以使数字公司准确有效地向特定用户发送消息。相比之下,用户却从来没有丝毫线索.
是的,大多数用户站点都发布了确认此数据收集的政策。当然,这就是我们过去所说的“小印刷”。这些信息在大量不可读的法律文本中丢失,并且只是顺便提及。因此,即使是极少数花时间阅读此类政策的用户也可能对此一无所知。当然,每个使用此类网站的互联网用户都默认接受这些条款。
6. AI模型的安全特性较弱
一些人工智能引擎将安全基线作为其架构中的默认元素。然而,这并不是一个规则,许多其他人没有任何适当的安全保护。这意味着不受欢迎的用户(包括犯罪分子)可以轻松获取其他用户的信息,包括身份信息.
7. 储存期长
那么,这些人工智能组织会将数据存储多久?在哪里?为什么?没有多少供应商对这些事情非常清楚,并且大多数供应商都会长期保存他们的记录。
以 ChatGPT 闻名的 OpenAI 政策为例。它表示,用户的输入和输出可以保留长达一个月的时间,“以识别滥用情况”。如何识别这种滥用行为?公司如何证明在不让用户知道的情况下仔细检查用户信息的合理性?我们不知道。我们想知道他们是否这样做。
隐私和人工智能数据的收集
网络抓取和网络爬行
网络抓取和网络爬行在大多数情况下都是免费且不受限制的。如果它受到某种限制,那么躲避这些方块就很容易了。我们不要忘记网络的巨大规模。因此,人工智能工具在通过这两个过程获取各种训练数据方面有很大的自由度。
内容就在那里,全世界的互联网用户都可以免费使用。最近,通过网络抓取和爬行进行元数据收集已占据主导地位。它主要来自营销和宣传数据集以及具有明确目标程序的网站。
AI模型中的用户查询
当您向人工智能模型发出执行任务的提示时,它可能会保留至少几天。并且它可能永远不会用于任何其他目的。然而,许多人工智能工具都保留这些数据以用于改进未来的训练.
生物识别技术
您可以将其变成生物识别收集器的硬件是无限的。每一件监控硬件,更不用说面部扫描仪、手指扫描仪,甚至普通麦克风,都可以检测带有生物特征签名的人声。这些东西可以将数据输入人工智能模型,在未经同意或不知情的情况下识别人类.
关于使用此类技术的规则正在最地方层面上推进,至少目前是这样。然而,目前的情况允许在没有任何人许可或不知情的情况下自由收集这些数据。
物联网传感器和设备
物联网 (IoT) 传感器和最先进的系统始终不断收集难以想象的数据点,并在附近的物理中心进行处理,以便完成更大规模、更强大的计算。来自物联网设备的高度专业化的信息对于人工智能系统非常有利.
蜜蜂
API 使用户可以更轻松地与 AI 模型交互,因为它们提供了易于访问的界面。问题是,它使企业可以更轻松地收集用于人工智能培训的有价值的数据。正确的API设计和部署可以让他们以最小的努力获得大量高质量的信息。
公共记录
公共记录是人工智能培训中最受欢迎的文件之一。它们甚至不需要数字化。就人工智能模型而言,关于公共公司、历史事件、过去和现在、犯罪记录、移民记录以及公共领域的任何内容都可以获取。他们不需要征求任何人的许可。用户调查和问卷。
这种方法似乎已经不流行了。然而,它仍然是一种非常有效的方法。它是经过验证的,人工智能供应商喜欢它。
用户提供有关他们使用人工智能服务的体验以及改进方法的相关信息。但任何问题都可以。这告诉人工智能它希望在未来更狭窄地瞄准目标的信息。
那么,我们能做些什么来解决人工智能和隐私问题呢?
终点不在这里。事实上,我们正处于即将到来的人工智能革命的开端。好消息是我们还有事情要做。一些好的实践和资源将大有帮助,让我们能够继续利用人工智能给我们带来的所有优势不完全放弃我们的隐私。请考虑以下提示:
- 确定适当的人工智能使用政策:内部人员必须了解他们可以使用的数据类型、如何、为何以及何时与人工智能工具交互。如果组织处理敏感的客户数据,这一点就变得更加重要。
- 投资数据治理和安全工具:这一切都与扩展检测和响应 (XDR) 相关。人工智能工具需要防止数据丢失、威胁情报和监控软件。专用工具提供此服务、保护您的数据并确保您的数据符合法规。它的工作原理是向查询结果或训练数据本身添加经过仔细校准的“统计噪声”。这使得人工智能能够从人群中学习一般模式,而无需记住或揭示任何单个个体的详细信息。
- 请阅读细则:哦,是的,这都是关于小写字母和那些使用条款,除了偏执狂之外没有人会读。文档就在那里,即使只是初级水平。请阅读它。如果发现危险信号,请识别它们。如果您有疑问,请向代表询问并确保您正确理解所有内容。
- 仅使用非敏感数据:您的私人和敏感数据不应该与人工智能模型共享;这一点从一开始就应该很清楚。
