로봇이 아닌 인간이라는 사실을 증명하기 위해 도입한 캡차 프로그램. 해석하지 못하고 방치된 오래전 문서를 이미지로 조각내 집단지성으로 글자 인식을 하려는 시도란 말이 있었지만 믿지 않았다. 캡차 이미지를 각 개인이 입력하면 그게 곧 OCR 프로그램처럼 글자 인식을 하게 되어 결국 미해결 문서를 해독하게 된다는 논리였을 게다. 그런데... 캡차를 위한 이미지에 맞는 글자를 넣었을 때 맞다 / 틀리다를 판정한다면 이미 글자로 인식되었다는 뜻이 아닌가. 혹시 모르겠다. 내 짧은 지식으로는 이해하지 못할 딥 러닝의 세계가 있는 건지도. 그럴 때 이런 위키 사이트를 방문해봐도 좋겠다. [가보려면 클릭}
오늘 주제는 '캡차의 원리와 방식과 결과물의 응용' 같은 지적 탐구가 아니므로 가볍게 넘어간다.
(미리 말해두는데, 바로 위에서 링크 글을 읽어봤으면 알겠지만 이런 방식의 캡차는 한참 전부터 활용되고 있었다. 아래 제시한 캡차 예문은 내가 최근에 겪었을 뿐이다.)
이 글 제목 그대로 최근 내가 겪은
캡차가 기존 방식과 달라서
캡처해봤다.
으잉? 단답형이 아니다. 아홉 개 이미지 가운데 자동차를 포함한 이미지를 모두 고르는 방식이다.
그런데 이미지가 너무 작고 흐릿하다. 이미지 크기를 최적화 시켜놓았거나 저작권의 위험을 피하기 위해서 이미지를 작게 사용했을까?
희미해서 패스. 다른 걸 선택하기로 했다.
헛... 또 희미해서 패스.
헛.. 헷갈려서 패스.
헛. 점입가경... 또 패스.
자전거 쯤은 알 수 있겠지.
강변과 마을에도 자전거가 있을 거 같아 망설였지만, 틀려도 그만인데 너무 많이 고민했다고 생각해 과감히 확인을 눌렀다.
정답?
(1000시간 뒤에 공개합니다~)