国立研究型大学高等经济学院哲学与文化研究学院副教授、

Learn, share, and connect around europe dataset solutions.
Post Reply
tanjimajuha20
Posts: 553
Joined: Thu Jan 02, 2025 7:17 am

国立研究型大学高等经济学院哲学与文化研究学院副教授、

Post by tanjimajuha20 »

“为了增加潜在患者的信任,有必要解决人工智能(AI)的伦理问题,尽管这个问题早在 50 多年前就已提出,但仍远未得到解决,”玛丽亚说。 Healthnet基础设施中心负责人Gallyamova指出,人工智能伦理非常重要,因为当涉及到医疗应用时,它直接影响患者的生命和健康。因此,这个话题在州和州际最高级别上进行讨论并非巧合。

NTI能力中心“可信交互技术”副主任Ruslan Permyakov表示,医学伦理最重要的任务是维护数据机密性问题。此外,正如专家警告的那样,医疗信息可能会被不当使用,并且已 马来西亚手机号码数据库 经有先例:“此类滥用的例子包括保险欺诈、向第三方(雇主)出售患者的个人数据或使用信息进行勒索。 ”正如鲁斯兰·佩尔米亚科夫(Ruslan Permyakov)警告的那样,情况变得更加复杂,因为即使是匿名的医疗数据也很容易去匿名化,用其他泄漏的结果“丰富”它,而这些结果很容易在专门的资源上找到。

此外,正如鲁斯兰·佩尔米亚科夫(Ruslan Permyakov)所强调的那样,人工智能工作的质量已经达到了这样的水平,即使不是通过照片,也可以通过视频分析进行诊断。此外,对于其携带者,我们可以谈论严格的限制,例如履行公务,或污名化的疾病,例如神经、精神、退行性疾病或各种成瘾(酒精、毒品)。这里出现了一个难题,如果潜在患者没有去医疗机构,是否有必要将此类医疗问题的存在通知第三方,例如专业医疗机构或雇主。正如鲁斯兰·佩尔米亚科夫(Ruslan Permyakov)指出的那样,在各种活动和媒体上经常听到传递此类诊断的呼吁。

院长Anastasia Ugleva向与会者介绍了人工智能伦理领域与医学相关的研究成果。医疗人工智能的伦理问题早就该解决,但将相关要求正式化的任务尚未解决。

正如 Anastasia Ugleva 回忆的那样,与在医学中使用人工智能相关的主要风险是由瑞典裔英国研究员、人类未来研究所创始人兼所长 Nick Boostrem 于 2006 年提出的。这是一种算法偏差(AI偏见)、人工智能算法为弱势群体带来的风险(歧视)、缺乏问责制和透明度、技术性失业,最后还有来自“超级智能”的生存威胁的可能性。

这些风险反过来又会引发对AI的信任问题,以及出现医疗差错时医生和AI之间的责任划分问题。 Anastasia Ugleva认为,构建道德AI,需要解决算法运行的可解释性和透明性问题,实现AI用户之间的“契约信任”。

俄罗斯临床实验室诊断制造商协会负责临床实验室诊断设备开发和实施的代表亚历山大·希巴诺夫(Alexander Shibanov)表示,医疗人工智能中的黑匣子原理绝对不可接受。决策权应由医生和患者共同决定。同时,医生和患者都应该得到人工智能提出的建议的详细解释。 Alexander Shibanov 提请注意的最重要问题是数据和模型的正确性。

“我们记录到,40% 的审查软件产品已达到成熟度,同时,对算法开发动态的评估表明,其中 33% 处于高诊断和技术潜力区域,62% 处于高诊断和技术潜力区域。这表明人工智能今天是医生的好助手,但不是他的替代品。”这是莫斯科卫生部放射和仪器诊断首席自由专家、该中心主任得出的结论。诊断和远程医疗中心尤里·瓦西里耶夫接受 ComNews 采访。
Post Reply