로봇은 아이들에게 또래 압력을 가할 수 있지만 우리가 면역되어 있다고 생각하지 마십시오

로봇 동료 압력 연구
플리머스 대학교

잘 알려진 TV 프로그램의 제목을 약간 수정하면 아이들은 가장 대담한 일을 합니다. 최근 독일과 영국 연구진이 연구를 진행했는데, 저널에 게재됨 과학로봇공학, 이는 아이들이 로봇 동료의 압력에 어느 정도 취약한지를 보여줍니다. TLDR 버전: 부모의 오래된 질문에 대한 답변: "만약 친구들이 모두 절벽에서 뛰어내리라고 하면 그렇게 하시겠습니까?" “물론이죠. 내 친구들이 모두 로봇이었다면.”

내용물

  • 어른들은 정말 그렇게 똑똑할까요?
  • 모든 배에는 난파선이 있다

이 테스트는 폴란드 심리학자 솔로몬 애쉬(Solomon Asch)가 개척한 유명한 1951년 실험을 재현했습니다. 이 실험은 사람들이 집단사고의 압력이 그들이 옳다고 알고 있는 정보에 반하는 경우에도 어떻게 영향을 받을 수 있는지를 보여주었습니다. Asch의 실험에서는 대학생 그룹이 함께 모여 두 장의 카드를 보여주었습니다. 왼쪽 카드에는 하나의 수직선 이미지가 표시되었습니다. 오른쪽 카드에는 다양한 길이의 세 줄이 표시되어 있습니다. 그런 다음 실험자는 참가자들에게 오른쪽 카드의 어떤 선이 왼쪽 카드에 표시된 선의 길이와 일치하는지 물었습니다.

추천 동영상

"그 연령대 아이들의 특별한 점은 그들이 아직 불신을 멈출 나이에 있다는 것입니다."

지금까지는 매우 간단했습니다. 그러나 상황이 더욱 악화된 곳은 그룹의 구성이었습니다. 그 그룹 중 단 한 사람만이 진정한 참여자였고, 나머지 사람들은 모두 미리 무슨 말을 해야 할지 말해 준 배우들이었다. 이 실험은 실제 참가자가 만장일치로 틀린 답을 내렸을 때 나머지 그룹과 협력할 것인지 테스트하는 것이었습니다. 결과적으로 대부분 그럴 것입니다. 동료의 압력은 다수의 의견을 따르는 것을 의미한다면 대다수의 사람들이 확실히 올바른 정보를 거부한다는 것을 의미합니다.

관련된

  • 진화하는 자가 복제 로봇이 여기 있습니다. 하지만 반란에 대해서는 걱정하지 마세요.
  • 로봇은 당신의 일자리를 훔치러 오지 않습니다. 그들은 그것을 개선하기 위해 오고 있어요

2018년 실험 리믹스에서는 동일한 원칙이 사용되었습니다. 대학생 그룹 대신에 "실제 참가자"는 7세에서 9세 사이의 어린이였습니다. "배우"는 잘못된 답을 제공하도록 프로그래밍된 세 개의 로봇에 의해 연기되었습니다. 43명의 자원봉사자 표본에서 74%의 어린이가 로봇과 동일한 오답을 내렸습니다. 결과는 이 연령대의 대부분의 어린이가 로봇의 압력을 실제 또래의 압력과 동일하게 취급할 것임을 시사합니다.

실험에서 참가자들에게 선 그룹을 제시하고 길이가 가장 긴 선을 선택하도록 요청했습니다. 로봇 참가자는 인간 참가자의 답변에 영향을 미치기 위해 만장일치로 잘못된 답변을 제공합니다.안나-리사 볼머, 로빈 리드, 드리스 트리파스, 토니 벨파임

"그 연령대의 아이들의 특별한 점은 그들이 아직 불신을 멈출 나이에 있다는 것입니다." 토니 벨파엠, 연구 수행에 도움을 준 지능형 및 자율 제어 시스템 교수는 Digital Trends에 말했습니다. “그들은 장난감을 가지고 놀면서도 여전히 자신의 액션 피규어나 인형이 진짜라고 믿습니다. 그들은 여전히 ​​인형극을 보고 무슨 일이 일어나고 있는지 정말로 믿을 것입니다. 그들은 여전히 ​​[산타클로스]를 믿을 수도 있습니다. 로봇을 볼 때도 마찬가지입니다. 전자 제품이나 플라스틱이 아니라 사회적 성격을 보는 것입니다.”

흥미롭게도 이 실험은 이를 성인의 반응과 대조했습니다. 아이들과 달리 어른들은 로봇의 실수에 휘둘리지 않았다. 벨파엠은 “어른이 로봇이 틀린 답을 내는 것을 보고 어리둥절한 표정을 지은 뒤 정답을 내놨다”고 말했다.

그럼 걱정할 건 없나요? 아이들이 나쁜 반응을 하도록 프로그래밍된 로봇을 손에 넣지 않는 한 모든 것이 괜찮을 것입니다. 그렇죠? 너무 서두르지 마세요.

어른들은 정말 그렇게 똑똑할까요?

Belpaeme이 인정한 것처럼 이 작업은 매우 간단하게 설계되었으므로 답이 무엇인지에 대한 불확실성이 없습니다. 현실 세계는 다릅니다. 기계에 쉽게 넘겨지는 작업의 종류에 대해 생각해 보면 이러한 작업은 인간으로서 항상 완벽하게 수행할 수 없는 작업인 경우가 많습니다.

이 작업은 매우 간단하게 설계되었기 때문에 답이 무엇인지에 대한 불확실성이 없었습니다.

작업이 믿을 수 없을 정도로 간단할 수도 있지만 기계는 우리보다 훨씬 더 빠르게 작업을 수행할 수 있습니다. 또는 컴퓨터가 우리보다 훨씬 더 많은 양의 데이터에 액세스할 수 있는 더 복잡한 작업일 수도 있습니다. 당면한 작업의 잠재적인 영향에 따라 우리 중 많은 사람이 기계를 수정하는 것에 만족하지 않는다는 것은 놀라운 일이 아닙니다.

병원의 간호사는 그 결정을 기각하는 것에 만족할까요? FDA 승인 알고리즘 활력 징후를 모니터링한 다음 의료진에게 경고를 보내 환자 건강에 대한 우선순위를 정하는 데 도움이 될 수 있습니까? 아니면 운전자가 특히 복잡한 도로 시나리오를 처리할 때 무인 자동차의 운전대를 잡는 것이 편안할까요? 아니면 잘못된 결정이 내려지고 있다고 생각하여 자동 조종 장치를 무시하는 조종사라도 될까요? 이 모든 경우에 우리는 대답이 "예"라고 생각하고 싶습니다. 하지만 여러 가지 이유로 그것이 현실이 아닐 수도 있습니다.

Nicholas Carr는 2014년 책에서 이에 대해 썼습니다. 유리 우리: 자동화가 우리를 데려가는 곳. 그가 설명하는 방식은 실제 자동화 사례에 수반되는 모호함을 강조합니다. 카드의 선 길이보다 훨씬 더 복잡하기 때문에 기계는 훨씬 더 똑똑하고 결과는 잠재적으로 더 많습니다. 중대한.

니콜라스 카
니콜라스 카(Nicholas Carr)는 퓰리처상 수상 작가로, 그의 저서 "The Shallows: What the Internet is Doing to Our Brains"와 "The Glass Cage: How Our Computers are Changing Us"로 가장 잘 알려져 있습니다.

“노력과 참여의 약화, 선택 의지와 자율성의 약화, 기술의 미묘한 저하로 인한 비용을 어떻게 측정합니까? 당신은 할 수 없습니다.”라고 그는 썼습니다. "이것들은 사라질 때까지 우리가 거의 인식하지 못하는 일종의 어둡고 무형적인 것들이며, 심지어 그때에도 우리는 손실을 구체적으로 표현하는 데 어려움을 겪을 수 있습니다."

"이것들은 사라질 때까지 우리가 거의 인식하지 못하는 일종의 어둡고 무형적인 것들입니다."

Belpaeme이 연구 논문에서 이론화한 종류의 소셜 로봇은 아직 주류는 아니지만 이미 이러한 수수께끼 중 일부가 실제로 실행되고 있다는 예시가 있습니다. 예를 들어, Carr는 조종사가 자동 조종 장치로 비행하는 데 소요되는 시간을 어떻게 줄여야 하는지 언급한 연방 항공국 메모를 언급하며 책을 시작합니다. 이는 충돌 데이터 분석을 기반으로 한 것으로, 조종사가 컴퓨터 시스템에 너무 많이 의존하는 경우가 많다는 것을 보여줍니다.

비슷한 사건이 로렌 로젠버그(Lauren Rosenberg)라는 여성이 제기한 2009년 소송과 관련이 있습니다. 구글을 상대로 소송을 제기했다 위험한 교통 상황으로 향하는 길을 따라 걸으라는 조언을 받은 후. 비록 이 사건은 법정에서 기각됐지만 사람들은 기계 지능이 우리보다 더 많은 지능을 가지고 있다는 믿음으로 자신의 상식을 무시할 것임을 보여줍니다.

모든 배에는 난파선이 있다

궁극적으로 Belpaeme이 인정한 것처럼 문제는 때때로 의사 결정을 기계에 맡기고 싶어한다는 것입니다. 로봇 따분하고 더럽고 위험한 일을 하겠다고 약속하다 — 그리고 우리가 모든 결정을 다시 추측해야 한다면 실제로 약속된 노동 절약 장치는 아닙니다. 우리가 궁극적으로 로봇을 집에 초대한다면 로봇이 자율적으로 행동할 수 있기를 원할 것이며, 그러기 위해서는 일정 수준의 신뢰가 필요합니다.

“당신에게 사회적 압력을 가하는 로봇은 좋은 것일 수 있습니다. 불길할 필요는 없습니다.”라고 Belpaeme은 계속했습니다. “의료나 교육에 사용되는 로봇이 있다면 로봇이 자신에게 영향을 미칠 수 있기를 바랍니다. 예를 들어, 체중 감량을 원할 경우 2개월 동안 체중 감량 로봇을 제공받을 수 있습니다. 모니터 칼로리 섭취량을 늘리고 더 많은 운동을 하도록 권장합니다. 당신은 그런 로봇이 당신을 설득하고 영향을 미치기를 원합니다. 하지만 선을 위해 사용될 수 있는 모든 기술은 악을 위해 사용될 수도 있습니다.”

이에 대한 대답은 무엇입니까? 이와 같은 질문은 사례별로 논의될 것입니다. 궁극적으로 나쁜 것이 좋은 것보다 크다면 소셜 로봇과 같은 기술은 결코 성공하지 못할 것입니다. 하지만 로봇이 유발하는 동료 압력에 관한 연구와 같은 연구에서 올바른 교훈을 얻는 것이 중요합니다. 그리고 우리가 아이들보다 훨씬 똑똑하다는 사실은 아닙니다.

편집자의 추천

  • 자동화의 미래: 로봇이 다가오고 있지만 로봇이 당신의 일자리를 빼앗지는 않을 것입니다.
  • 이 로봇은 잡초를 제거하여 농부들에게 화학 제초제가 필요하지 않습니다.