使用 AI 工具和生成新内容时,需要考虑许多道德方面的问题。谁拥有输出内容的所有权,尤其是当输出内容深受受版权保护的材料影响或直接复制自受版权保护的材料时?在考虑大语言模型 (LLM) 分析的数据时,我们应如何看待人类偏见?
作为 Web 从业者,我们必须以周到、负责任的态度来构建新技术。世界各地都在努力解答这些问题(以及更多问题)。我们无法涵盖所有疑虑,但可以就您在使用 AI 时如何考虑伦理问题展开对话。
以下是在使用和构建 AI 工具时需要考虑的一些关键方面:
- 内容所有权和版权。版权是为作者的原创作品提供的法律保护。各国法律各不相同,许多国家/地区都在讨论 AI 生成的内容会带来哪些影响。 无论何时发布内容,您都应知道以下问题的答案:您是否侵犯了他人的版权内容?这道题的难度可能超出您的预期!
- 偏见和歧视。计算机和算法由人类构建,并使用可能由人类收集的数据进行训练,因此会受到人类偏见和有害刻板印象的影响。这会直接影响输出。
- 隐私保护和安全措施。这对于所有网站和 Web 应用都很重要,但当其中包含敏感信息或个人身份信息时,这一点尤为重要。使用云 API 将用户数据暴露给更多第三方是一个令人担忧的问题。任何数据传输都必须安全可靠,并持续受到监控。
Google 的 AI 原则
我们致力于以负责任的方式开发技术,并明确不会涉足的特定 AI 领域。事实上,Google 已经承诺遵守多项 AI 原则,并组建了专注于治理和实施的核心团队。
简而言之,我们对 AI 应用的目标如下:
- 大胆创新。我们开发的 AI 可在人类涉足的几乎所有领域为人类提供帮助、助力和启发;推动经济进步;改善生活;促成科学突破;并帮助人类应对最严峻的挑战。
- 负责任的开发和部署。我们深知,AI 作为一项仍在不断发展的新兴变革性技术,会带来不断演变的复杂问题和风险,因此我们在 AI 开发和部署的整个生命周期(从设计到测试,再到部署和迭代)中,都会以负责任的方式推进 AI 发展,并随着 AI 技术和用途的不断发展而持续学习。
- 共同进步,携手前行。我们打造的工具可帮助他人利用 AI 来实现个人和集体利益。
虽然我们作为 Web 开发者可能并不总是负责创建模型和收集训练 AI 工具的数据集,但我们有责任选择使用哪些工具以及使用 AI 创建哪些最终产品。
网络上考虑道德问题的组织
许多公益组织、非政府组织 (NGO) 和其他公司都将工作和研究重点放在创建合乎道德规范的 AI 上。
以下仅列举了几个示例。
这一领域还有很多工作要做,还有很多考虑因素尚未发现。我们打算在生成每条内容时都认真考虑伦理问题。