大数据满足行为健康

                                                                       

Pixabay
来源:Pixabay

在通过在线和电子方式进行互动时,谁拥有您生成的数据?关于您创建的信息呢?您是否有能力查看该信息,更不用说删除或控制它了?在许多情况下,这似乎是现代最广泛的社会和法律斗争之一.现在,这些数据正在进入具有最强的机密性和隐私保护功能的地方:您的.

当Facebook透露Cambridge Analytica和许多其他团体已经获得了有关数百万Facebook用户的数据的访问权时,我们开始了解到此问题的广度.这些公司使用从个人产生或有关个人的数据,能够定向针对性的广告和电子互动,目的是影响人们的投票,购买和消费方式.

B.J. Fogg是斯坦福大学的家,他创建了斯坦福大学说服技术实验室,研究人员在该实验室开发了“改变人类",“改变人们的思想和人们的行为..."的技术.他的工作影响了硅谷的许多人,以及现代努力以更复杂的方式使用技术来影响包括健康在内的行为.通过这些努力,人们开发出了更好地要求和吸引人们力和时间的软件和设备.通过使人们与屏幕和设备粘合,更频繁地使用社交媒体软件和平台,放置在这些平台上的广告将获得更多的曝光机会,从而产生更多的收入.

Dopamine Labs是另一个小组,使用“大脑黑客"来增加用户的参与度并“向用户提供完美的爆发……多巴胺爆发不仅感觉良好:事实证明,它可以改变用户的行为并习惯." (实际上,这不是实际上多巴胺的工作原理,但是每个人都喜欢用多巴胺听起来很聪明……)

Pixabay
来源:Pixabay

从Facebook泄露的文件表明,当用户(尤其是青少年)感到不安全,一文不值,压力大,焦虑或不知所措时,该公司能够识别并做出响应. 2014年,Facebook在对用户进行实验时遭到批评,目的是测试和启发其通过“情绪传染"所创造的效果,并改变用户收到的情感暗示.

不过,这还不是很糟糕吗?毕竟,Facebook现在正在使用人工智能系统来检测和识别可能自杀的用户.如果检测到自杀陈述,则可以由Facebook主持人联系做出自杀陈述的人,或者接收有关当地资源或急救人员的信息(警察或消防队).在某些情况下,Facebook安全团队成员甚至会联系第一响应者和Facebook用户所在的911,并将发现的自杀风险告知他们.在这种情况下,第一响应者然后可以进行“健康检查"并拜访识别出的个人.当精神卫生专业人员意识到患者的风险时,这是他们常用的工具.请注意,Facebook用户当前无法选择退出此过程,并且不同意监视其心理健康状况和自杀风险.作为一名有执照的临床医生,当我与患者会面时,我必须事先解释说,如果我认为它们对自己或他人构成危险,则我必须报告. Facebook的新服务条款中有一个字条:他们使用自己的数据“检测何时有人需要帮助",尽管Facebook在该披露中链接的详细信息并未明确表明Facebook可能会代表您与紧急响应者联系.

帕洛阿尔托的另一家初创公司Mindstrong Health拥有一个平台,该平台可以监控人们的智能手机使用情况,以寻找的征兆.它是由美国国家精神卫生研究所的前所长托马斯·英瑟尔(Thomas Insel)博士共同创立的.该公司还参与寻找创伤电子迹象的研究.

所有这些问题都涉及用户生成的数据,正在分析实际人的行为.但是关于您的 数据以及您的心理健康状况如何?该数据也在那里.在弗吉尼亚州,管理型护理组织和医疗保健提供者已多次违反数据泄露准则.有关您,您的心理健康诊断和所接受治疗(包括药物)的数据都可以随时获取.

Pixabay
来源:Pixabay

其他团体也正在收集和共享有关您以及您的行为健康需求的信息.三个是几个新的软件和电子项目,这些项目具有紧急响应者和执法部门的平台,以创建有关有行为健康问题或需求的公民的数据库,以使响应者在与这些人互动时可以访问. RideAlong是一个有趣的项目,位于西雅图,经过周密的考虑,执法人员可以访问或更改他们保留在系统中的信息,并决定不应识别有关诊断的信息.但是,到目前为止,还没有任何条款可以使人们实际知道或修改存储在该系统中的任何有关他们的信息.我听说这家公司的人在场,尽管他们非常重视保密性,但他们也希望提供执法手段来共享有关您的信息.

Collective Medical Technologies是一家俄勒冈州的公司,具有类似的平台,该平台创建,跟踪和共享有关去医院急诊室的人的可靠信息的数据库.该数据库只能由医疗保健提供者和受管理的医疗保健提供者访问,但是该数据库包含有关个人为何去急诊室,他们接受何种治疗以及在激怒患者时降低其等级的技术的记录.如果我的一位患者出现在急诊室中,甚至可以通知我自己这样的行为健康提供者(公平披露,我和我领导的组织,现在是该项目的参与医疗保健提供者),以便我可能伸出手去参与他们的治疗.同样,由于此数据是关于人的而不是人的,并且是由受保密法律约束的实体共享的,因此个人本身无需同意,甚至可能不知道他们或他们的数据在此系统中.

有关您的行为健康诊断和治疗历史的数据将用于指导执法机构,科技公司,托管医疗保险公司,州和政府以及许多其他可以访问该信息的团体做出的有关您的决定.该历史记录可能会帮助您获得更多支持支持,但也可能会被用来限制您的选择和选择.大哥博士,正在诊断您是否喜欢它.

Pixabay
来源:Pixabay

作为行为健康提供者,他在州和全国范围内都参与了政策制定,我已经看到数据挖掘和分析的这种最新发展已深入到行为健康领域.老实说,我对此感到矛盾.我绝对可以在许多地方看到这些信息,这些信息可以挽救生命,防止悲剧发生并帮助人们获得帮助.但是,我总是想起反乌托邦的科幻小说,在该小说中,国家或人工智能系统检测到不快乐的迹象,并努力改变或改变这些人及其感受.我们有权利不高兴吗?如果凡高(Van Gogh),罗宾·威廉姆斯(Robin Williams)和安东尼·布尔登(Anthony Bourdain)等著名艺术家和天才被发现并接受治疗,他们都有可能知道自己的行为健康需要,他们可能没有死去并继续从事令人赞叹的工作.但是,他们本来拥有选择患和独自一人的权利呢?

有关您的行为,心理和情感健康的数据正在收集和分析.将使用像这样的大数据集.我们不会收集这些信息,只是可以放在那里.它将如何使用以及在获得其允许的情况下是一个令人恐惧的大问题的一部分,目前,我们还不回答这个问题.

                                               
1
订阅评论
提醒
0 评论
内联反馈
查看所有评论