인공 지능 – Google Vision API – 고급 이미지 이해 – 객체 감지 분야의 API 응답에서 모든 객체 주석을 추출하려면 감지된 객체 목록과 해당 객체 목록이 포함된 API에서 제공하는 응답 형식을 활용할 수 있습니다. 경계 상자 및 신뢰 점수. 이 응답을 구문 분석하면 원하는 개체 주석을 추출할 수 있습니다.
API 응답은 일반적으로 감지된 개체가 포함된 "localizedObjectAnnotations" 필드를 포함하여 다양한 필드가 포함된 JSON 개체로 구성됩니다. 각 객체 주석에는 객체 이름, 경계 상자 좌표, 감지에 대한 API의 신뢰도를 나타내는 신뢰도 점수 등의 정보가 포함됩니다.
객체 주석을 추출하려면 다음 단계를 따르세요.
1. API 응답 구문 분석: API에서 수신된 JSON 응답을 구문 분석하는 것부터 시작합니다. 이는 JSON 구문 분석 라이브러리나 프로그래밍 언어에서 제공하는 내장 함수를 사용하여 수행할 수 있습니다.
2. "localizedObjectAnnotations" 필드에 액세스합니다. 응답이 구문 분석되면 감지된 개체가 포함된 "localizedObjectAnnotations" 필드에 액세스합니다. 이 필드는 일반적으로 객체 주석의 배열입니다.
3. 객체 주석을 통해 반복: 배열의 각 객체 주석을 반복합니다. 각 주석은 이미지에서 감지된 개체를 나타냅니다.
4. 관련 정보 추출: 각 개체 주석에서 개체 이름, 경계 상자 좌표, 신뢰도 점수 등 관련 정보를 추출합니다. 이러한 세부정보는 각 개체 주석 내의 별도 필드로 액세스할 수 있습니다.
5. 추출된 정보 저장 또는 처리: 요구 사항에 따라 추출된 정보를 데이터 구조에 저장하거나 분석 또는 기타 목적을 위해 추가로 처리할 수 있습니다. 예를 들어, 객체 이름과 해당 경계 상자 좌표를 데이터베이스에 저장하거나 추가 이미지 이해 작업에 사용할 수 있습니다.
다음은 추출 프로세스를 설명하는 간단한 예입니다.
python import json # Assume 'response' contains the API response in JSON format response =
{
"localizedObjectAnnotations": [
{
"중간": "/m/01g317",
"이름": "고양이",
"점수": 0.89271355,
"바운드폴리": {
"normalizedVertices": [
{"x": 0.1234, "y": 0.5678},
{"x": 0.5678, "y": 0.1234}
] }
},
{
"mid": "/m/04rky",
"이름": "개",
"점수": 0.8132468,
"바운드폴리": {
"normalizedVertices": [
{"x": 0.4321, "y": 0.8765},
{"x": 0.8765, "y": 0.4321}
] }
}
] }
# Parse the API response response_data = json.loads(response) # Access the object annotations annotations = response_data['localizedObjectAnnotations'] # Iterate through the object annotations for annotation in annotations: # Extract relevant information object_name = annotation['name'] bounding_box = annotation['boundingPoly']['normalizedVertices'] confidence = annotation['score'] # Process or store the extracted information print(f"Object: {object_name}, Bounding Box: {bounding_box}, Confidence: {confidence}") # Output: # Object: cat, Bounding Box: [{'x': 0.1234, 'y': 0.5678}, {'x': 0.5678, 'y': 0.1234}], Confidence: 0.89271355 # Object: dog, Bounding Box: [{'x': 0.4321, 'y': 0.8765}, {'x': 0.8765, 'y': 0.4321}], Confidence: 0.8132468
이 예에서는 탐지된 두 개체(고양이와 개)가 포함된 JSON 응답을 가정합니다. 코드는 응답을 구문 분석하고, "localizedObjectAnnotations" 필드에 액세스하고, 각 개체 주석을 반복하고, 개체 이름, 경계 상자 좌표 및 신뢰도 점수를 추출합니다. 마지막으로 추출된 정보가 인쇄되지만 특정 요구 사항에 맞게 코드를 수정할 수 있습니다.
이러한 단계를 수행하면 인공 지능 – Google Vision API – 고급 이미지 이해 – 객체 감지 분야의 API 응답에서 모든 객체 주석을 효과적으로 추출할 수 있습니다.
기타 최근 질문 및 답변 고급 이미지 이해:
- Google Vision API의 객체 인식을 위해 사전 정의된 카테고리에는 어떤 것이 있나요?
- 다른 조정 기술과 함께 안전 검색 감지 기능을 사용하는 데 권장되는 접근 방식은 무엇입니까?
- 안전 검색 주석의 각 카테고리에 대한 가능성 값에 어떻게 액세스하고 표시할 수 있나요?
- Python에서 Google Vision API를 사용하여 안전 검색 주석을 어떻게 얻을 수 있나요?
- 세이프서치 감지 기능에 포함된 5가지 카테고리는 무엇인가요?
- Google Vision API의 안전 검색 기능은 이미지 내의 노골적인 콘텐츠를 어떻게 감지하나요?
- 필로우 라이브러리를 사용하여 이미지에서 감지된 개체를 어떻게 시각적으로 식별하고 강조할 수 있습니까?
- Pandas 데이터 프레임을 사용하여 추출된 객체 정보를 표 형식으로 어떻게 구성할 수 있나요?
- Google Vision API의 기능을 보여주기 위해 어떤 라이브러리와 프로그래밍 언어가 사용됩니까?
- Google Vision API는 이미지에서 객체 감지 및 위치 파악을 어떻게 수행하나요?
더 많은 질문과 답변:
- 들: 인공 지능
- 프로그램 : EITC/AI/GVAPI Google Vision API (인증 프로그램으로 이동)
- 교훈: 고급 이미지 이해 (관련 강의 바로가기)
- 주제 : 물체 감지 (관련 항목으로 이동)
- 심사 검토