신기하군요. 원리가 정말 궁금합니다.
음 잼있군요…
우리나라는 회사일과 관련없는 쪽을 하면 욕을 많이 먹을텐데 ㅋㅋㅋ
엥… 전 그냥 일반 이미지 검색과 같네요… 어떻게 하는건지…
[quote="coreanlibero":27lurpz5]엥… 전 그냥 일반 이미지 검색과 같네요… 어떻게 하는건지… [/quote:27lurpz5]이미지를 검색하신 후
Similar images 를 클릭하세요.
[quote="하노스":1qsin3y7][quote="coreanlibero":1qsin3y7]엥… 전 그냥 일반 이미지 검색과 같네요… 어떻게 하는건지… [/quote:1qsin3y7]이미지를 검색하신 후
Similar images 를 클릭하세요. [/quote:1qsin3y7]
아… 제가 찾았던 이미지는 비슷한 것이 없어서 저 문구가 안 떴던거군요… 하노스님 감사합니다.
이거 재미있네요… 결국 계속 꼬리에 꼬리를 물고 검색을 하게되고… 구글 안에서 검색에 검색을…
색깔별로 이미지를 보여주는 것도 재미있는데요???
[quote="Lbird":24919af2]신기하군요. 원리가 정말 궁금합니다.[/quote:24919af2]
이미지를 의미있는 정보로 바꾸기 위해 여러가지 방법들이 쓰이는데…
보통 외곽선 정보와 색상의 배치 정보를 많이 사용합니다.
하나의 이미지를 전달해 주면 의미가 있는 지점을 여러군데 찾아서 숫자 매트릭스로 바꿔서 저장해 놓고 이를 특징점(Feature)이라 말합니다.
그리고 다른 이미지에서도 동일한 작업으로 특징점을 골라내고 이 특징점들을 비교해서 비슷한 배치와 색상을 보이는 점들을 1:1로 매치시켰을 때 얼마나 많이 겹치는가 하는 정도에 따라 일치 여부나 포함 여부를 구분하게 됩니다.
매치되는 비율을 적절히 조절하면 완전히 일치되는 이미지 말고 그저 비슷한 이미지도 골라낼 수 있습니다.
이 때 컴퓨터 비전에서는 보통 이미지 크기에 구애받지 않는 알고리즘을 주로 사용하는데…
이용 목적에 따라서 매우 많은 종류의 다양한 알고리즘이 있지만 가장 많이 활용되는 알고리즘으로 SIFT라는 알고리즘이 있습니다.
실시간으로 동작되기에는 너무 처리량이 많아서(특징점 추출이 매우 느리므로) 보통은 목적에 따라 다양한 형태로 변형되서 사용되는데요.
만들어진지 조금 오래되었고 많은 검증과 개선이 이뤄졌으며 당장 사용할 수 있는 구현 사례들(예제 코드도 많고)이 많기 때문에…
아마 구글도 저 알고리즘을 사용한 것이라 생각됩니다.
MS의 PhotoSynth가 SIFT를 활용한 유명 사례가 되겠습니다.
PhotoSynth에서는 서로 다른 사진들의 위치 관계를 알아내기 위해서 SIFT를 사용했지요.
[quote="tinywolf":3295tb58][quote="Lbird":3295tb58]신기하군요. 원리가 정말 궁금합니다.[/quote:3295tb58]
이미지를 의미있는 정보로 바꾸기 위해 여러가지 방법들이 쓰이는데…
보통 외곽선 정보와 색상의 배치 정보를 많이 사용합니다.
하나의 이미지를 전달해 주면 의미가 있는 지점을 여러군데 찾아서 숫자 매트릭스로 바꿔서 저장해 놓고 이를 특징점(Feature)이라 말합니다.
그리고 다른 이미지에서도 동일한 작업으로 특징점을 골라내고 이 특징점들을 비교해서 비슷한 배치와 색상을 보이는 점들을 1:1로 매치시켰을 때 얼마나 많이 겹치는가 하는 정도에 따라 일치 여부나 포함 여부를 구분하게 됩니다.
매치되는 비율을 적절히 조절하면 완전히 일치되는 이미지 말고 그저 비슷한 이미지도 골라낼 수 있습니다.
이 때 컴퓨터 비전에서는 보통 이미지 크기에 구애받지 않는 알고리즘을 주로 사용하는데…
이용 목적에 따라서 매우 많은 종류의 다양한 알고리즘이 있지만 가장 많이 활용되는 알고리즘으로 SIFT라는 알고리즘이 있습니다.
실시간으로 동작되기에는 너무 처리량이 많아서(특징점 추출이 매우 느리므로) 보통은 목적에 따라 다양한 형태로 변형되서 사용되는데요.
만들어진지 조금 오래되었고 많은 검증과 개선이 이뤄졌으며 당장 사용할 수 있는 구현 사례들(예제 코드도 많고)이 많기 때문에…
아마 구글도 저 알고리즘을 사용한 것이라 생각됩니다.
MS의 PhotoSynth가 SIFT를 활용한 유명 사례가 되겠습니다.
PhotoSynth에서는 서로 다른 사진들의 위치 관계를 알아내기 위해서 SIFT를 사용했지요.[/quote:3295tb58]
그렇군요. 예전에 생체 인식 관련해서 좀 들었던 얘기랑 비슷하네요.
[quote="tinywolf":1dw2y4iz][quote="Lbird":1dw2y4iz]신기하군요. 원리가 정말 궁금합니다.[/quote:1dw2y4iz]
이미지를 의미있는 정보로 바꾸기 위해 여러가지 방법들이 쓰이는데…
보통 외곽선 정보와 색상의 배치 정보를 많이 사용합니다.
하나의 이미지를 전달해 주면 의미가 있는 지점을 여러군데 찾아서 숫자 매트릭스로 바꿔서 저장해 놓고 이를 특징점(Feature)이라 말합니다.
그리고 다른 이미지에서도 동일한 작업으로 특징점을 골라내고 이 특징점들을 비교해서 비슷한 배치와 색상을 보이는 점들을 1:1로 매치시켰을 때 얼마나 많이 겹치는가 하는 정도에 따라 일치 여부나 포함 여부를 구분하게 됩니다.
매치되는 비율을 적절히 조절하면 완전히 일치되는 이미지 말고 그저 비슷한 이미지도 골라낼 수 있습니다.
이 때 컴퓨터 비전에서는 보통 이미지 크기에 구애받지 않는 알고리즘을 주로 사용하는데…
이용 목적에 따라서 매우 많은 종류의 다양한 알고리즘이 있지만 가장 많이 활용되는 알고리즘으로 SIFT라는 알고리즘이 있습니다.
실시간으로 동작되기에는 너무 처리량이 많아서(특징점 추출이 매우 느리므로) 보통은 목적에 따라 다양한 형태로 변형되서 사용되는데요.
만들어진지 조금 오래되었고 많은 검증과 개선이 이뤄졌으며 당장 사용할 수 있는 구현 사례들(예제 코드도 많고)이 많기 때문에…
아마 구글도 저 알고리즘을 사용한 것이라 생각됩니다.
MS의 PhotoSynth가 SIFT를 활용한 유명 사례가 되겠습니다.
PhotoSynth에서는 서로 다른 사진들의 위치 관계를 알아내기 위해서 SIFT를 사용했지요.[/quote:1dw2y4iz]
음…그렇군요…나중에 시간되면 한번 도전해 봐야긋네요 ㅋㅋ 애니메이션 이미지가 좀 많아놔서리…