본문 바로가기

[MOOC] Coursera & edX

[edX] What are heuristics and biases? 휴리스틱스와 편견들

반응형

Here, you will find out what heuristics and biases are and how are they of importance for structured expert judgment. Imagine you want to try your luck this week and buy one lottery ticket. At the counter, you can choose to buy one ticket that is already filled in or to fill in the ticket yourself.

여기서는 휴리스틱스 및 편견이 무엇이며 구조화된 전문가 판단에 얼마나 중요한지 확인할 수 있습니다. 여러분이 이번 주에 행운을 시도해보고 복권을 한 장 사고 싶다고 상상해 보세요. 카운터에서 자동으로 구입하거나 직접 입력하도록 선택할 수 있습니다.

What would you choose?


Research has shown that it is more likely that you choose to fill in the ticket yourself. If you have done so, it means that you have relied on a rule of thumb rather than have performed a mental calculation in order to determine the probability of winning the lottery with the two tickets.  I refer here to subjective probability or degree of belief. Such rules of thumb are called heuristics. Is it something wrong to rely on heuristics, you might wonder now. We definitely use heuristics on daily basis.

연구 결과에 따르면 티켓을 직접 작성하는 것이 더 가능성이 높습다고 합니다. 이 경우에 두 티켓으로 복권 당첨 확률을 결정하기 위해 정신적인 계산을 수행하기보다는 경험적 규칙에 의존했음을 의미합니다. 여기서 주관적인 확률이나 신념의 정도를 말하는건데요. 이러한 경험 법칙을 휴리스틱이라고합니다.휴리스틱스에 의존하는 것이 잘못된 것일까요, 여러분은 지금 궁금해할지도 모릅니다. 우리는 확실히 매일 휴리스틱스를 사용합니다.

The problem however is that they might lead to predictable errors. By error, I mean here either a violation of the axioms of probability, or an estimate that is not in accordance with the subject's belief.  When heuristics lead to these kinds of errors, we speak of biases. The word "bias" has multiple meanings. Bias is used here as a "misperception" of probabilities. We will see how it is important to be aware of these biases  when designing techniques for eliciting expert opinion. 

문제는 예측 가능한 오류로 이어질 수 있다는 점입니다. 오류로 말하자면, 여기서 말하는 것은 확률의 공리를 위반하거나, 피험자의 신념에 맞지 않는 추정치를 말하는 것입니다. 휴리스틱스가 이런 종류의 오류를 야기할 때, 우리는 편견에 대해 이야기합니다. "바이어스"라는 단어는 여러 가지 의미를 가지고 있습니다. 여기서 바이어스는 확률의 "실수"로 사용됩니다. 전문가의 의견을 이끌어내기 위한 기법을 설계할 때 이러한 편견을 인식하는 것이 얼마나 중요한지 알게 될 것입니다.

There are numerous biases researched and documented by the field of psychology, including anchoring, availability, confirmation bias, representativeness, conservatism, ostrich effect, overconfidence, control. You might recognize some of them from their name. We will only discuss these three, as they are relevant for the expert judgment setting. Availability is a term coined by the psychologists Amos Tversky and Daniel Kahneman in 1973. They suggested that the heuristic follows the principle that "if you can think of it, it must be important". Things that can be recalled more easily are believed to be far more common and more accurate reflections of the real world.

심리학 분야에 의해 연구되고 문서화된 수많은 편견들이 있습니다. 앵커링, 가용성, 확인 편견, 대표성, 보수성, 타조 효과, 과신, 통제력. 그들 중 몇몇은 그들의 이름에서 알 수 있을 것입니다. 여기서는 세 가지만 논의하겠습니다. 이는 전문가의 판단 설정과 관련이 있기 때문입니다. 가용성(Availability)은 1973년 심리학자인 아모스 트베르스키와 다니엘 카네만에 의해 만들어진 용어입니다. 그들은 휴리스틱이 "만약 당신이 그것을 생각할 수 있다면, 그것은 반드시 중요하다"는 원칙을 따를 것을 제안했습니다. 더 쉽게 회상할 수 있는 것들은 훨씬 더 흔하고 더 정확한 현실의 반영으로 여겨진다는 것입니다.

Typically, the frequency with which a given event occurs is usually estimated by the ease with which instances can be recalled. Reports and high media coverage on airplane accidents, for example, often lead people to believe that such events are more likely to occur than they truly are. This, in turn, fuels plane crash fears, which make people think that travelling by air is more risky than travelling by car, for example.

일반적으로 지정된 사건이 발생하는 빈도는 일반적으로 인스턴스를 쉽게 불러올 수 있는 빈도로 추정됩니다. 예를 들어, 비행기 사고에 대한 보도와 높은 언론 보도는 종종 사람들이 그러한 사건이 실제보다 더 일어날 가능성이 높다고 믿게 합니다. 이것은 결국, 사람들이 자동차로 여행하는 것보다 항공기로 여행하는 것이 더 위험하다고 생각하게 만들 뿐더러 비행기 충돌에 대한 공포를 부채질하기도 하죠.


Also, when asked to estimate the likelihood of certain disasters, one might be influenced by the availability bias.
For example, seeing a number of movies about nuclear disasters might influence someone's degree of belief in the occurrence of a nuclear disaster. Similarly, the high media coverage of tsunamis or earthquakes will also make these disasters more likely. More likely than global warming, for example. But that touches upon other biases and errors in human judgment. 

또한 특정 재해의 가능성을 추정할 때, 가용성 편향이 영향을 받을 수 있습니다.
예를 들어, 핵 재앙에 관한 많은 영화를 보는 것은 핵 재앙의 발생에 대한 누군가의 믿음 정도에 영향을 미칠 수 있습니다. 마찬가지로, 쓰나미나 지진에 대한 언론의 높은 보도도 이러한 신념을 더 많이 발생시킬 것입니다. 지구 온난화보다 더 가능성이 높다고 생각하는 것이죠. 하지만 그것은 인간의 판단의 다른 편견과 오류를 자극할 뿐입니다.


Say someone wants to sell their old car for about 6,500 dollars. How much should she/he advertise the car for?  Most people would advertise the car with a higher selling price, say 7,500 dollars, in the idea that negotiation will follow. This happens because the first number, of 7,500, will anchor the whole negotiation. Moreover, the negotiation would also lead to a lower price, which will make the buyer content. So we see the anchoring heuristic at work!  Kahneman and Tversky also coined this term, of anchoring, in a paper entitled "Judgment under uncertainty: heuristics and biases"

누군가가 그들의 낡은 차를 약 6,500달러에 팔고 싶다고 생각해보세요. 그녀는/그는 그 차를 얼마에 광고해야 할까요? 대부분의 사람들은 협상이 뒤따를 것이라는 생각에서 7,500달러라는 더 높은 판매 가격으로 자동차를 광고할 것입니다. 첫 번째 숫자인 7,500이 전체 협상을 고정시킬 것이기 때문입니다. 게다가, 그 협상은 또한 더 낮은 가격으로 이어질 것이고, 이것은 구매자들을 만족시킬 것입니다. 이에 바탕으로 우리는 직장에서 앵커링 휴리스틱을 생각해 볼 수도 있겠습니다. Kahneman과 Tversky는 또한 "불확실성의 판단: 휴리스틱스와 편견"이라는 제목의 논문에서 앵커링이라는 용어를 만들었습니다. 

The anchoring bias describes the human tendency to heavily rely on the first piece of available information, the anchor. Once the anchor is set, uncertainty estimates are provided around the anchoring value, regardless the legitimacy of the actual anchor number. This occurs also when estimating probabilities. If we set ourselves in the expert elicitation framework, the anchoring bias might arise in the following way. Recall that the experts are asked to estimate the 5% and 95% quantiles of a continuous distribution, along with the 50% quantile. What happens in practice is that often experts "anchor" too close to the 50% quantile, which leads to an underestimation of the tails. 

앵커링 바이어스는 이용 가능한 첫 번째 정보인 앵커에 크게 의존하는 인간의 경향을 설명합니다. 일단 앵커가 설정되면, 실제 앵커 번호의 합법성에 관계없이 앵커 값을 중심으로 불확실성 추정치가 제공됩니다. 이 문제는 확률 추정 시에도 발생합니다. 우리가 전문가 도출 프레임워크에 우리를 배치할 때, 앵커링 바이어스은 다음과 같은 방식으로 발생할 수 있습니다. 전문가에게 50% 퀀텀과 함께 연속 배포의 5% 및 95% 퀀텀을 추정하도록 요청했다고 생각해봅시다. 이 때 실제로 일어나는 일은 종종 전문가들이 50% 퀀텀에 너무 가까이 접근하여 꼬리가 과소평가되는 것입니다. 


These assessments lead to distributions which are "too concentrated". This effect is closely tied to another bias, that is, overconfidence. Simply put, overconfidence is the tendency to think that one knows more than one knows in fact. Kahneman called overconfidence "the most significant of the cognitive biases". Arguably the best known cases where overconfidence played a major role are the sinking of the Titanic, the disaster of Chernobyl or the loss of space shuttle Challenger. All these cases basically denote a poor judgment of estimating the failure probabilities. To end with a more positive note, a study in 1981 by Ola Svenson revealed that 93% of the interviewed people believed they were better drivers than the median. Which of course is statistically impossible. Do you think the Classical Model addresses the overconfidence bias? 

이러한 평가는 "너무 집중된" 분포를 유발합니다. 이 효과는 또 다른 편견, 즉 과신과 밀접하게 연관되어 있습니다. 간단히 말해서, 과신이란 사실은 알고 있는 것보다 더 많이 알고 있다고 생각하는 경향입니다. Kahneman은 과신을 "인지기적 편견 중 가장 중요한 것"이라고 불렀습니다. 과신함이 주요한 역할을 했던 가장 잘 알려진 경우들은 타이타닉호의 침몰, 체르노빌의 재난 또는 우주왕복선 챌린저호의 손실 등이 있는데요. 이 모든 경우들은 기본적으로 고장 확률을 추정하는 잘못된 판단에 기인한 것이죠. 마지막으로, Ola Svenson의 1981년 연구는 인터뷰 대상자의 93%가 자신이 중위수보다 더 나은 운전자라고 믿는다는 것을 밝혀냈습니다. 물론 통계적으로 불가능한 이야기죠. 당신은 고전적 모델이 과신 편견에 대처한다고 생각합니까? 


Finally, we look at the control bias, with which we started this video. The control bias describes the belief that if some aspect of an event is controllable, such as filling in your lottery ticket, for example, then its probability is influenced. Well, it is very nice that we learned about these heuristics and biases. But are they important for structured expert judgment and why should we care?

마지막으로, 우리는 이 비디오를 통해 제어 편향을 살펴보겠습니다. 통제 편향은 예를 들어 복권 채우기 같은 이벤트의 일부 측면이 통제될 수 있는 경우, 그 확률이 영향을 받는다는 믿음을 설명합니다. 글쎄요, 우리가 이러한 휴리스틱스와 편견에 대해 알게 된 것은 매우 좋은 일입니다.하지만 그것들은 구조화된 전문가의 판단에 중요한가요? 그리고 우리가 왜 신경써야 할까요?

The answer is yes, they are extremely important. That is because people, including experts, frequently use heuristics in providing subjective probabilities. We have seen that these heuristics might lead to potentially biased assessments. It is therefore important to be aware of these biases, and to try to "fix" them or develop expert elicitation methods that minimize the biases. Having said this, do you think that the Classical Model is developed such that it minimizes biases? If so, can you name one in particular?

대답은 "그렇다"입니다. 그들은 매우 중요합니다. 그것은 전문가를 포함한 사람들이 주관적인 확률을 제공하기 위해 휴리스틱스를 자주 사용하기 때문입니다. 우리는 이러한 휴리스틱스가 잠재적으로 편향된 평가로 이어질 수 있다는 것을 보았습니다. 따라서 이러한 편견을 인식하고, 편견을 최소화하는 전문가 도출 방법을 "수정"하거나 개발하는 것이 중요합니다. 반면, 여러분은 고전적 모델이 편견을 최소화하도록 개발되었다고 생각하나요? 만약 그렇다면, 특별히 이름을 댈 수 있나요?


You can express your opinion in the discussion forum. If you are interested to read more about heuristics and biases, here are three great books as references. Bear in mind that in the books of Kahneman, most of the experiments did not involve experts. In the book of Cooke, you can read about some experiments performed with experts.

토론 포럼에서 자신의 의견을 표현할 수 있습니다. 만약 여러분이 휴리스틱스와 편견에 대해 더 많이 읽고 싶다면, 여기 참고자료로 세 권의 훌륭한 책이 있습니다. 카네만의 책에서, 대부분의 실험은 전문가들을 포함하지 않았다는 것을 기억하세요. 쿡의 책에서, 여러분은 전문가들과 함께 수행된 몇 가지 실험에 대해 읽을 수 있습니다.

 

반응형