人工智能应用中的伦理风险与信息监理机制
摘要
伴着科技飞速前行,人工智能深深融入社会生活各处,像医疗诊断、金融交易、交通出行以及智能安防等,它所给予的高效和便捷众人皆见。不过,在人工智能运用持续扩展之际,不少伦理隐患也慢慢浮现。诸如算法偏差、隐私遭侵、责任划分不明这类问题,愈发受到重视。本文着眼于人工智能应用里的伦理风险,深度探究其形成缘由,同时尝试搭建有效的信息监管机制,目的是在促使人工智能技术进步的过程中,维护社会伦理规范和信息安全。
关键词
人工智能;伦理风险;信息监理;算法;隐私
全文:
PDF参考
[1]张铤.人工智能的伦理风险治理探析[J].中州学刊,2022,(01):114-118.
[2]薛桂波.生成式人工智能的伦理风险及其防范对策[J/OL].南京林业大学学报(人文社会科学版),2025,(01):
1-11[2025-04-11].
[3]林雨佳.生成式人工智能对信息治理的挑战与应对[J].苏州大学学报(哲学社会科学版),2025,46(02):104-115.
[4]覃露.基于人工智能的信息安全防护系统研究[C]//中国智慧工程研究会.文化传承与现代化治理学术交流会论文集.广西民族
大学;,2024:316-317.
[5]郭佳楠.生成式人工智能大模型的伦理风险与规制策略——以 DeepSeek 为例[J/OL].华北水利水电大学学报(社会科学版),
1-10[2025-04-11].
(3 摘要 Views, 15 PDF Downloads)
Refbacks
- 当前没有refback。