หากต้องการแยกคำอธิบายประกอบวัตถุทั้งหมดออกจากการตอบสนองของ API ในด้านปัญญาประดิษฐ์ – Google Vision API – การทำความเข้าใจรูปภาพขั้นสูง – การตรวจจับวัตถุ คุณสามารถใช้รูปแบบการตอบสนองที่ API เตรียมไว้ให้ ซึ่งรวมถึงรายการของวัตถุที่ตรวจพบพร้อมกับวัตถุที่เกี่ยวข้อง กรอบขอบเขตและคะแนนความมั่นใจ เมื่อแยกวิเคราะห์การตอบสนองนี้ คุณสามารถแยกคำอธิบายประกอบของวัตถุที่ต้องการได้
โดยทั่วไปการตอบสนองของ API จะประกอบด้วยออบเจ็กต์ JSON ที่มีช่องต่างๆ รวมถึงช่อง "localizedObjectAnnotations" ซึ่งมีออบเจ็กต์ที่ตรวจพบ คำอธิบายประกอบแต่ละออบเจ็กต์จะมีข้อมูล เช่น ชื่อของออบเจ็กต์ พิกัดกรอบขอบเขต และคะแนนความเชื่อมั่นที่ระบุถึงความเชื่อมั่นของ API ในการตรวจจับ
หากต้องการแยกคำอธิบายประกอบของวัตถุ คุณสามารถทำตามขั้นตอนเหล่านี้:
1. แยกวิเคราะห์การตอบสนองของ API: เริ่มต้นด้วยการแยกวิเคราะห์การตอบสนอง JSON ที่ได้รับจาก API ซึ่งสามารถทำได้โดยใช้ไลบรารีการแยกวิเคราะห์ JSON หรือฟังก์ชันในตัวที่ภาษาการเขียนโปรแกรมของคุณมอบให้
2. เข้าถึงฟิลด์ "localizedObjectAnnotations": เมื่อแยกวิเคราะห์คำตอบแล้ว ให้เข้าถึงฟิลด์ "localizedObjectAnnotations" ซึ่งมีออบเจ็กต์ที่ตรวจพบ โดยทั่วไปฟิลด์นี้จะเป็นอาร์เรย์ของคำอธิบายประกอบของวัตถุ
3. วนซ้ำคำอธิบายประกอบของวัตถุ: วนซ้ำคำอธิบายประกอบของวัตถุแต่ละรายการในอาร์เรย์ คำอธิบายประกอบแต่ละรายการแสดงถึงวัตถุที่ตรวจพบในภาพ
4. แยกข้อมูลที่เกี่ยวข้อง: แยกข้อมูลที่เกี่ยวข้องจากคำอธิบายประกอบของวัตถุแต่ละรายการ เช่น ชื่อของวัตถุ พิกัดกรอบขอบเขต และคะแนนความเชื่อมั่น รายละเอียดเหล่านี้สามารถเข้าถึงได้เป็นช่องแยกกันภายในคำอธิบายประกอบแต่ละออบเจ็กต์
5. จัดเก็บหรือประมวลผลข้อมูลที่แยกออกมา: คุณสามารถจัดเก็บข้อมูลที่แยกออกมาในโครงสร้างข้อมูลหรือประมวลผลเพิ่มเติมเพื่อการวิเคราะห์หรือวัตถุประสงค์อื่น ๆ ได้ ทั้งนี้ขึ้นอยู่กับความต้องการของคุณ ตัวอย่างเช่น คุณอาจต้องการจัดเก็บชื่อออบเจ็กต์และพิกัดกล่องขอบเขตที่สอดคล้องกันในฐานข้อมูล หรือใช้สำหรับงานทำความเข้าใจรูปภาพเพิ่มเติม
ต่อไปนี้คือตัวอย่างง่ายๆ เพื่อแสดงกระบวนการแยก:
python import json # Assume 'response' contains the API response in JSON format response =
{
"คำอธิบายประกอบวัตถุเฉพาะที่": [
{
"กลาง": "/m/01g317",
"ชื่อ": "แมว",
"คะแนน": 0.89271355,
"boundingPoly": {
"จุดยอดปกติ": [
{"x": 0.1234, "y": 0.5678},
{"x": 0.5678, "y": 0.1234}
] }
},
{
"กลาง": "/m/04rky",
"ชื่อ": "สุนัข",
"คะแนน": 0.8132468,
"boundingPoly": {
"จุดยอดปกติ": [
{"x": 0.4321, "y": 0.8765},
{"x": 0.8765, "y": 0.4321}
] }
}
] }
# Parse the API response response_data = json.loads(response) # Access the object annotations annotations = response_data['localizedObjectAnnotations'] # Iterate through the object annotations for annotation in annotations: # Extract relevant information object_name = annotation['name'] bounding_box = annotation['boundingPoly']['normalizedVertices'] confidence = annotation['score'] # Process or store the extracted information print(f"Object: {object_name}, Bounding Box: {bounding_box}, Confidence: {confidence}") # Output: # Object: cat, Bounding Box: [{'x': 0.1234, 'y': 0.5678}, {'x': 0.5678, 'y': 0.1234}], Confidence: 0.89271355 # Object: dog, Bounding Box: [{'x': 0.4321, 'y': 0.8765}, {'x': 0.8765, 'y': 0.4321}], Confidence: 0.8132468
ในตัวอย่างนี้ เราถือว่าการตอบสนอง JSON มีวัตถุที่ตรวจพบ 2 รายการ ได้แก่ แมวและสุนัข โค้ดจะแยกวิเคราะห์การตอบสนอง เข้าถึงฟิลด์ "localizedObjectAnnotations" วนซ้ำคำอธิบายประกอบของออบเจ็กต์แต่ละรายการ และแยกชื่อของออบเจ็กต์ พิกัดกล่องขอบเขต และคะแนนความเชื่อมั่น ในที่สุด ข้อมูลที่แยกออกมาจะถูกพิมพ์ออกมา แต่คุณสามารถแก้ไขโค้ดให้เหมาะกับความต้องการเฉพาะของคุณได้
ด้วยการทำตามขั้นตอนเหล่านี้ คุณจะสามารถแยกคำอธิบายประกอบออบเจ็กต์ทั้งหมดออกจากการตอบสนองของ API ในด้านปัญญาประดิษฐ์ – Google Vision API – การทำความเข้าใจรูปภาพขั้นสูง – การตรวจจับวัตถุได้อย่างมีประสิทธิภาพ
คำถามและคำตอบล่าสุดอื่น ๆ เกี่ยวกับ ความเข้าใจภาพขั้นสูง:
- หมวดหมู่ที่กำหนดไว้ล่วงหน้าสำหรับการจดจำวัตถุใน Google Vision API มีอะไรบ้าง
- แนวทางที่แนะนำในการใช้คุณลักษณะการตรวจจับการค้นหาปลอดภัยร่วมกับเทคนิคการดูแลอื่นๆ คืออะไร
- เราจะเข้าถึงและแสดงค่าความน่าจะเป็นสำหรับแต่ละหมวดหมู่ในคำอธิบายประกอบการค้นหาปลอดภัยได้อย่างไร
- เราจะรับคำอธิบายประกอบการค้นหาปลอดภัยโดยใช้ Google Vision API ใน Python ได้อย่างไร
- ห้าหมวดหมู่ที่รวมอยู่ในคุณลักษณะการตรวจจับการค้นหาปลอดภัยมีอะไรบ้าง
- คุณลักษณะการค้นหาที่ปลอดภัยของ Google Vision API ตรวจจับเนื้อหาที่ไม่เหมาะสมภายในภาพได้อย่างไร
- เราจะระบุและเน้นวัตถุที่ตรวจพบในภาพด้วยสายตาโดยใช้ไลบรารีหมอนได้อย่างไร
- เราจะจัดระเบียบข้อมูลวัตถุที่แยกออกมาในรูปแบบตารางโดยใช้กรอบข้อมูลของแพนด้าได้อย่างไร
- ไลบรารีและภาษาการเขียนโปรแกรมใดที่ใช้ในการสาธิตการทำงานของ Google Vision API
- Google Vision API ทำการตรวจหาวัตถุและการแปลในรูปภาพอย่างไร
ดูคำถามและคำตอบเพิ่มเติมในการทำความเข้าใจรูปภาพขั้นสูง
คำถามและคำตอบเพิ่มเติม:
- สนาม: ปัญญาประดิษฐ์
- โปรแกรม: EITC/AI/GVAPI Google Vision API (ไปที่โปรแกรมการรับรอง)
- บทเรียน: ความเข้าใจภาพขั้นสูง (ไปที่บทเรียนที่เกี่ยวข้อง)
- หัวข้อ: การตรวจจับวัตถุ (ไปที่หัวข้อที่เกี่ยวข้อง)
- ทบทวนข้อสอบ