AI를 만들때 우리는 왜 결과물이 좋은지 이해하지 못할 뿐더러, 무슨 패턴을 보고, 어디를 보고 이러한 output을 도출하는지 모르기때문에 AI의 성능이 잘 나오거나 잘 나오지 않을 때 원인을 찾지 못한다.=> 이러한 현상을 Black Box라고 한다.-> 이러한 블랙 박스를 설명할 수 있는 방법이 XAI 이다.Linear Models는 정확도가 떨어지지만 해석이 직관적으로 가능하다 하지만 CNN과 같은 Blackbox Model은 정확도가 높지만 해석하기가 어려운 모델들이다-> 이러한 모델들을 해석하기 위한 것이 XAI이다.XAI : 설명 가능한 AI(XAI, Explainable AI)는 인공지능 모델의 예측 결과나 의사 결정 과정을 사람이 이해할 수 있도록 설명해주는 기술 또는 접근 방식-> 기존..