커피 트윗

인공 지능 개발과 책임 본문

IT & 비지니스

인공 지능 개발과 책임

커피 트윗 2016. 10. 21. 09:21

테크 크런치 사이트 (techcrunch [dot] com)에서, “AI accountability needs action now, say UK MPs” 옮겼습니다.   

                                          

                                     

영국 의회의 위원회는 영국 정부에게 적극적으로 그리고 지금 행동하라고 촉구했습니다: 인공 지능과 같은 자율적인 기술이 점점 사용되고 있는 데에서 생겨나는 사회적, 윤리적, 그리고 법적인 질문들을 다루기 위해서입니다. 위원회는 다음과 같이 말합니다: “이제 시작된 부문을 위한 규정을 다루어 정하기에는, 때가 약간 이르긴 합니다. 그러나 인공 지능 시스템의 윤리적, 법적, 그리고 사회적인 측면들을 꼼꼼하게 조사하는 것은 중요합니다. 이것은 영국이 사회적으로 유익한인공 지능 시스템을 개발하는데 집중하게 뿐만 아니라, 공적으로도 그러한 시스템을 오랜 시간을 두고 토론하고 신뢰하는 방향으로 나아가게 하는 시도입니다”. 위원회는 3월에 인공 지능과 로보틱스 (robotics) 관한 조사를 시작했으며, 67개의 서면 제출을 포함하여, 12명의 증인으로부터 직접 이야기를 들을 것이며, 그리고 구글 딥마인드 (Google DeepMind) 런던 사무실 방문 역시 포함합니다. 과학과 기술 위원회는 로보틱스와 인공 지능에 대한 보고서 (report into robotics and AI)” 발표하면서, 문제들은 진지하게 고려되어야 필요가 있다고 경각심을 일깨웠습니다: 인공 지능 시스템을 만들 실수로 편파적으로 만드는 것을 최소화 조치를 취한다 (“taking steps to minimise bias being accidentally built into AI systems”) / 그들이 내릴 결정을 투명하게 보장하는 (“ensuring that the decision they make are transparent”) / 인공 지능 기술이 의도된 대로 운영되도록 원하지 않는 혹은 예측할 없는 행동이 나타나지 않도록 인증할 있는 방법을 시도하는 (“instigating methods that can verify that AI technology is operating as intended and that unwanted, or unpredictable, behaviours are not produced”). 보고서에서, “인공 지능에 의하여 제기되는 윤리적이고 법적인 문제들이 지금 [우리의] 주의를 필요로 한다는 것에 대하여 증인들은 분명히 그렇다고 생각하며, 적절한 관리의 (suitable governance frameworks) 필요하다 적었습니다. 지금의 단계에서는, 위원회는 정부에게 권고하기를, 정부는 인공 지능에 관한 상임 위원회를 만들기를 권유했고, 상임 위원회는 인공 지능의 개발과 응용을 관리할 있는 원칙을 밝혀야 이라고 말했으며, 또한 자동화 기술에 대한 공적인 토론을 장려하고 조언을 해야 한다고 말했습니다. 보고서의 결론 부분에서 다음과 같이 덧붙였습니다: “영국은 인공 지능의 함축성에 관한 세계적으로 선도하고 있으며, 세계적으로 지적인 리더십을 적절히 제공하고 있습니다. 그럼에도, 전문적인 기술을 지배할 조화로운 접근법이 요구됩니다”.

알고리듬, 윤리 그리고 책임 (Algorithms, ethics and accountability) : 인공 지능을 배치하는 것에서 제기되는 윤리적인 그리고 법적인 문제들에 관한 부문에서, 위원회는 결정 과정에서의 투명성 (decision-making transparency)” 가장 중요한 도전으로 꼽았습니다: 현재 인공 지능 시스템이 특정 결정을 내릴 이유가 제공되도록 설립되는 것이 지금 현재에는 극히 드물다 점을 지적했습니다 (“noting that it is “currently rare” for AI systems to be set up to provide a reason for reaching a particular decision”). 다른 말로, 전형적으로, 인공 지능 시스템은 그들의 작용을 보여주도록 만들어지지 않았다는 것입니다 이런 점은 인공 지능에 의하여 만들어지는 결정에 대하여 근본적인 이유를 이끌어내는 것이 [쉽지 않고] 문제가 됩니다. 그럼에도, 명의 증인들은 결정하는 절차가 의미있고 투명하게 있도록 개발하는 지원합니다. 동시에, 보고서는 강조하기를, 유럽 연합의 일반적 정보 보호 규제 (General Data Protection Regulation, (GDPR))’ 2018년에 유럽 연합 회원국 사이에서 효력이 발생한다는 점을 강조합니다 규제는 사용자들에게 설명을 들을 자유 보장하는데, 그들은 자동화된 알고리듬적인 결정에 대하여 설명을요구할 있다는 것입니다: 따라서, 인공 지능 시스템에서의 결정을 하는 것에 대한 책임에 대하여 법적으로 필수적인 조항으로 만드는 것은 나중에 하는 것보다 빨리 하는 것이 좋습니다. ‘편견을 최소화하는 (minimizing bias)’ 부문에서, 보고서는 역시 지적하기를 GDPR 역시 차별적이고 정보에 의하여 결정된 프로파일링 (profiling)’ 대항하여 보호한다고 합니다. 그럼에도 위원회는 부분에 대하여 이렇게 썼습니다: “인공 지능 시스템의 디자인 그리고 편견과 차별이 도입될 있는 잠재력에 대해서도 쏟는 관심과 주의가 어느 정도인지 명확하지 않습니다”. 개인보호와 동의 (privacy and consent)’라는 부분은 인공 지능이 건강/의료 보호 정보에 응용되었을 일어날 수도 있는 구체적인 문제점들에 대한 것입니다: 특히 올해 구글의 딥마인드가 국가 보건 의료 서비스 트러스트와 협력하여 정보를 공유하는 것에 대한 논란이 있었습니다 (“noting data-sharing controversy this year following Google DeepMind’s collaboration with NHS Trusts”). 여기서 위원회는 지적하기를, 증인들 중의 명은 적당한 정보 관리를 확실히 하는 것이 필요한데, 동의를 구하는 적절한 체제에서 윤리적으로 공급되어야하는 필요성을 강조했으며, 다른 증인은 인공 지능이 우리를 위하여 집단으로 일할 있도록” “지능적인 개인 정보 보호 (intelligent privacy)” 개발할 필요성에 대하여 이야기했습니다. 보고서의 부분은 책임과 의무 대하여 다루는데, 위원회는 말하기를, 자율주행차와 같은 기술의 운영을 관리하기 위한 새로운 벌률 제정이 필요한지 그렇지 않은지가 명백하지 않다고 합니다: 혹은, 이런 법적인 질문들은, 판례볍 (case law) 조항을 만듦으로써 법정에서 결정하도록 맡겨야 할지 분명하지 않다고 합니다. 법률 분야에서는 이렇게 지적합니다: 법적인 원칙을 사건이 이후적용할 경우, “관련된 모든 사람에게 매우 비싸고 스트레스가 심한 상황이 이라고 말합니다. 그리고 위원회는 자동적인 무기 그리고 치명적인 자동/자율적인 무기 시스템의 운영에 관한 부분은 매우 중요한문제로 취급했습니다 여러분들이 희망하는 대로 말입니다. 보고서는 제안하기를, 안전한 규제 환경이 대중들로 하여금 자동화 기술에 대한 공적인 신뢰를 쌓게 있다고 합니다: 그리고 증인 중의 명이 이에 대하여 상업적인 비행기가 [따라야 ] 성공적인 예라고 지적했습니다. 다른 사람들은 지나친 규제는 테크 부문에서 계속 일어나고 있는 혁신을 억누를 수도 있다고 경고했습니다. 로보틱스와 인공 지능에 대한 적절한 관리의 틀을 만들고 확인하는 것에 누가 연관되어야 하는가, 라는 질문에 대하여, 위원회는 다양한 범위의 이익 단체가 포함되어야 한다고 강조하며, 이렇게 하는 것이 효과적인 실수/간과 체제를 개발하는 것이 주요하다 (“as key to developing an effective oversight regime”) 말합니다. 인공 지능이 어떻게 운영되는가에 대한 다양한 도전에 대하여 테크크런치에 코멘트를 하며, 웰러 (A. Weller)씨는 동의하기를 다루기 어려운 문제 있지만, 인공 지능의 윤리와 책임에 대하여 많은 관심이 쏟아지고 있다고 말합니다. 웰러씨는 캠브리지 대학의 기계 학습 그룹 (Machine Learning Group)’ 상임 연구자입니다. “캠브리지에서 미래의 지능을 위한 새로운 레버훔 센터 (Leverhulme centre) 같은 사이트를 보면, 이러한 중요한 문제에 대하여 관심이 높아지고 있습니다라고 그는 말하며, “그리고 NIPS에서의 중요한 기계 학습 컨퍼런스에서 다가오는 워크숍/심포지아 (workshops/symposia) 보십시요. 저는 ML [기계 학습] (개인보호, 책임, 투명성 그리고 정당성), 그리고 Reliable ML in the wild [미개척 분야에서 신뢰할 있는 기계 학습], 그리고 알고리듬의 해석에 대한 발표에 저도 연관되어 있습니다”. 정보 과학 컨설턴트인 오닐 (C. O’Neil)씨는  학계의 바깥에서의 견해를 밝히는데, 그는 어떻게 데이터가 불평등을 증가시킬 있는가에 관한 책을 썼습니다: 그는 주장하기를, 가장 시급한 문제는 어떻게 알고리듬을 오딧 (audit) 것인가가 아니라, 알고리듬이 오딧될 필요에 동의하는 기술자를 구하는 것이라고 합니다. “가장 중요한 점은, 정보 과학자 (data scientists) 기술자 (technologists)들은 문제를 인정하지도 않는다는 것입니다. 그들은 인공 지능에 편견을 만들어 넣을 있다는 점도 심지어 인정하지 않습니다. 그들은, 그들이 배치하는 영향력있는 알고리듬으로 인한 어떤 책임도 인정하지 않습니다라고 그는 테크크런치에 말합니다. “만약 당신이 페이스북 엔지니어나 구글의 엔지니어와 이야기하면, 그들은 그들의 알고리듬이 발생시킨 피드백 루프 (feedback loops) 인정하지 않습니다. 우리들 가운데 영향력있는 기술자들에 의하여 책임져야 문제도 책임져 지지 않습니다라고 그는 말합니다. 오닐씨는 다른 이들을 위하여 알고리듬 오딧을 실시하는 회사 (“a company aiming to conduct algorithmic audits”) 만들었습니다 비록 아직 고객은 없지만 말입니다. “저희는 아직 도구가 없습니다. 도구를 개발할 필요가 있기 때문에 제가 회사를 만든 것입니다라고 그는 계속 말합니다. “그리고 접근할 정보가 없기 때문에, 나는 고객이 필요합니다. 인공 지능을 만드는 회사 하나가 누군가가 일을 능력이 있는지 결정하든지혹은 이런 도구를 개발하지 않는 결정을 내리든지, 회사중의 하나가 이런 일을 하는 것이 훨씬 쉽습니다 왜냐면 그들은 모든 정보를 실제로 가지고 있기 때문입니다. 당신이 실제 알고리듬에 접근할 있고 그리고 정보가 그것으로 투입되는, 그런 상황이 아닌 , 이런 알고리듬을 오딧하는 것은 불가능합니다 (It’s impossible to audit these algorithms unless you have access to the actual algorithms and the data going into them)”. 그리고 오닐씨는 이렇게 덧붙입니다: “모든 사람에게 편견이 있습니다. 다만 편견이 우리가 거기에서 원하는 편견인지가 문제입니다”.  

디지털 기술의 전환 (Shifting digital skills) : 과학과 기술 위원회는 영국의 직업과 기술 지형에서 증가하는 자동화가 가지는 함축성을 진지하게 고민하며, 디지털 기술 분야에서 정부가 리더십이 부족하다고 비판했으며, 오랫 동안 지연된 디지털 전략 (Digital Strategy)’ 출판하라고 촉구했습니다. 위원회는, 인공 지능과 로보틱스가 영국 국내의 노동력에 끼치는 영향어떻게 직업이 변화할 것인지 혹은 일자리가 없어질 것인지 혹은 일자리가 새롭게 만들어 것인지 대해서는 합의가 이루어지지 않았다고 보고합니다: 그럼에도, 새롭게 부상하는 기술들과 맞물릴 있도록 교육과 훈련 과정을 적응시키는 것에 많은 관심을 쏟아야 한다는 전반적인 합의 있다고 합니다. “정부는, 이상 출판을 지연하지 말고, ‘디지털 전략 통하여 디지털 기술 위기를 말하는데 노력을 기울여야 합니다라고 위원회는 적었습니다. 보고서는 또한 로보틱스와 자율 시스템 (robotics and autonomous systems, (RAS)) 대하여 전반적으로 리더십이 부족하다고 비판하였는데 분야는 이전의 보수당이 이끌던 정부에서 2012년에 영국을 위한 중요한 부문으로 정했습니다: 그리고 정부가 2015 3월에 약속했던 ‘RAS 리더십 협의회 아직 만들지 않았다고 지적했습니다. “이러한 점은 즉시 해결되어야 하며, 리더십 협의회 역시 이상의 지연없이 만들어져야 합니다. 리더십 협의회는, 정부에 의하여 지원되는 국내 RAS 전략 (National RAS Strategy)’ 만들어낸다는 목적으로 정부와 연구 협의회 (Research Council)’ 협력하여 함께 일해야 것입니다: 위대한 기술 (great technology)’ 위한 정부의 야심만만한 목표를 시작하고, 재정적인 지원을 받아야 한다고, 위원회는 덧붙였습니다.