การประมวลผลภาพดิจิทัลคือการใช้คอมพิวเตอร์ดิจิทัลในการประมวลผลภาพดิจิทัลผ่านอัลกอริทึม [ 1] [2]ในฐานะหมวดหมู่ย่อยหรือสาขาของการประมวลผลสัญญาณดิจิทัลการประมวลผลภาพดิจิทัลมีข้อได้เปรียบหลายประการเหนือ การประมวลผล ภาพแบบอะนาล็อกช่วยให้สามารถใช้อัลกอริทึมที่หลากหลายยิ่งขึ้นกับข้อมูลอินพุตและสามารถหลีกเลี่ยงปัญหาต่างๆ เช่น การสะสมของสัญญาณรบกวนและการบิดเบือนระหว่างการประมวลผล เนื่องจากภาพถูกกำหนดให้เป็นสองมิติ (อาจมากกว่านั้น) การประมวลผลภาพดิจิทัลจึงอาจจำลองได้ในรูปแบบระบบหลายมิติการสร้างและการพัฒนาการประมวลผลภาพดิจิทัลได้รับผลกระทบจากปัจจัยหลักสามประการ ประการแรก การพัฒนาคอมพิวเตอร์[3]ประการที่สอง การพัฒนาคณิตศาสตร์ (โดยเฉพาะการสร้างและการปรับปรุงทฤษฎีคณิตศาสตร์แบบไม่ต่อเนื่อง) [4]ประการที่สาม ความต้องการแอปพลิเคชันที่หลากหลายในด้านสิ่งแวดล้อม เกษตรกรรม การทหาร อุตสาหกรรม และวิทยาศาสตร์การแพทย์เพิ่มขึ้น[5]
เทคนิค การประมวล ผลภาพดิจิทัล จำนวนมาก หรือที่มักเรียกกันว่าการประมวลผลภาพดิจิทัลได้รับการพัฒนาในช่วงทศวรรษ 1960 ที่Bell Laboratories , Jet Propulsion Laboratory , Massachusetts Institute of Technology , University of Marylandและศูนย์วิจัยอื่นๆ อีกไม่กี่แห่ง โดยมีการประยุกต์ใช้กับภาพถ่ายดาวเทียมการแปลงมาตรฐานภาพถ่ายด้วยสายการถ่ายภาพทางการแพทย์วิดีโอโฟนการจดจำอักขระและการปรับปรุงภาพถ่าย[6]วัตถุประสงค์ของการประมวลผลภาพในระยะเริ่มแรกคือการปรับปรุงคุณภาพของภาพ โดยมีจุดมุ่งหมายเพื่อให้มนุษย์ปรับปรุงเอฟเฟกต์ภาพของผู้คน ในการประมวลผลภาพ อินพุตเป็นภาพคุณภาพต่ำ และเอาต์พุตเป็นภาพที่มีคุณภาพดีขึ้น การประมวลผลภาพทั่วไป ได้แก่ การปรับปรุงภาพ การบูรณะ การเข้ารหัส และการบีบอัด การประยุกต์ใช้ที่ประสบความสำเร็จครั้งแรกคือ American Jet Propulsion Laboratory (JPL) พวกเขาใช้เทคนิคการประมวลผลภาพ เช่น การแก้ไขทางเรขาคณิต การแปลงการไล่ระดับสี การกำจัดสัญญาณรบกวน ฯลฯ กับภาพถ่ายดวงจันทร์หลายพันภาพที่ส่งกลับมาโดย Space Detector Ranger 7 ในปี 1964 โดยคำนึงถึงตำแหน่งของดวงอาทิตย์และสภาพแวดล้อมของดวงจันทร์ ผลกระทบของการทำแผนที่พื้นผิวดวงจันทร์สำเร็จด้วยคอมพิวเตอร์ถือเป็นความสำเร็จ ต่อมามีการประมวลผลภาพที่ซับซ้อนมากขึ้นกับภาพถ่ายเกือบ 100,000 ภาพที่ส่งกลับมาโดยยานอวกาศ เพื่อให้ได้แผนที่ภูมิประเทศ แผนที่สี และภาพโมเสกแบบพาโนรามาของดวงจันทร์ ซึ่งให้ผลลัพธ์ที่ไม่ธรรมดาและวางรากฐานที่มั่นคงสำหรับการลงจอดของมนุษย์บนดวงจันทร์[7]
อย่างไรก็ตาม ต้นทุนการประมวลผลค่อนข้างสูงเมื่อเทียบกับอุปกรณ์คอมพิวเตอร์ในยุคนั้น แต่การเปลี่ยนแปลงนี้เกิดขึ้นในช่วงทศวรรษปี 1970 เมื่อการประมวลผลภาพดิจิทัลแพร่หลายมากขึ้น เนื่องจากมีคอมพิวเตอร์ราคาถูกและฮาร์ดแวร์เฉพาะทางให้เลือกใช้ ทำให้มีการประมวลผลภาพแบบเรียลไทม์สำหรับปัญหาเฉพาะบางอย่าง เช่นการแปลงมาตรฐานโทรทัศน์เมื่อคอมพิวเตอร์เอนกประสงค์ทำงานได้เร็วขึ้น คอมพิวเตอร์จึงเริ่มมีบทบาทเป็นฮาร์ดแวร์เฉพาะทางสำหรับการทำงานทุกประเภท ยกเว้นการทำงานเฉพาะทางและใช้คอมพิวเตอร์จำนวนมาก ด้วยคอมพิวเตอร์และโปรเซสเซอร์สัญญาณที่มีความเร็วสูงในช่วงทศวรรษปี 2000 การประมวลผลภาพดิจิทัลจึงกลายเป็นรูปแบบการประมวลผลภาพที่พบเห็นได้ทั่วไป และมักใช้กันทั่วไป เนื่องจากไม่เพียงแต่เป็นวิธีที่อเนกประสงค์ที่สุดเท่านั้น แต่ยังราคาถูกที่สุดอีกด้วย
พื้นฐานสำหรับเซ็นเซอร์ภาพ สมัยใหม่ คือ เทคโนโลยี โลหะออกไซด์เซมิคอนดักเตอร์ (MOS) [8]ซึ่งประดิษฐ์ขึ้นที่ Bell Labs ระหว่างปีพ.ศ. 2498 ถึง พ.ศ. 2503 [9] [10] [11] [12] [13] [14]ซึ่งนำไปสู่การพัฒนาเซ็นเซอร์ภาพเซมิคอนดักเตอร์ แบบดิจิทัล รวมถึง อุปกรณ์ชาร์จคัปเปิล (CCD) และเซ็นเซอร์ CMOS ในเวลาต่อ มา[8]
อุปกรณ์ประจุคู่ถูกประดิษฐ์ขึ้นโดยWillard S. BoyleและGeorge E. Smithที่ Bell Labs ในปี 1969 [15]ในขณะที่ทำการวิจัยเทคโนโลยี MOS พวกเขาได้ตระหนักว่าประจุไฟฟ้านั้นเปรียบได้กับฟองแม่เหล็ก และสามารถเก็บไว้ในตัวเก็บประจุ MOS ขนาดเล็กได้ เนื่องจาก การสร้างตัวเก็บประจุ MOS ชุดหนึ่งติดต่อกันนั้นค่อนข้างตรงไปตรงมา พวกเขาจึงเชื่อมต่อแรงดันไฟฟ้าที่เหมาะสมกับตัวเก็บประจุเหล่านี้เพื่อให้ประจุสามารถเคลื่อนที่จากตัวหนึ่งไปยังอีกตัวหนึ่งได้ [8] CCD เป็นวงจรเซมิคอนดักเตอร์ที่ต่อมาใช้ในกล้องวิดีโอดิจิทัลตัว แรก สำหรับการออกอากาศทางโทรทัศน์[16]
เซ็นเซอร์NMOS active-pixel (APS) ได้รับการประดิษฐ์ขึ้นโดยบริษัท Olympusในประเทศญี่ปุ่นในช่วงกลางทศวรรษ 1980 ซึ่งเป็นผลมาจากความก้าวหน้าในการผลิตอุปกรณ์เซมิคอนดักเตอร์ MOS โดยการปรับขนาด MOSFETให้เข้าถึงระดับไมครอนและซับไมครอนได้[17] [18]ทีมของ Tsutomu Nakamura ที่บริษัท Olympus ได้ประดิษฐ์ NMOS APS ขึ้นในปี 1985 [19] ต่อมา ทีมของEric Fossum ที่ ห้องปฏิบัติการขับเคลื่อนไอพ่นของ NASAได้พัฒนาเซ็นเซอร์ CMOS active-pixel (เซ็นเซอร์ CMOS) ขึ้น[ 20 ]ในปี 2007 ยอดขายเซ็นเซอร์ CMOS ได้แซงหน้าเซ็นเซอร์ CCD [21]
เซ็นเซอร์ภาพ MOS ถูกใช้กันอย่างแพร่หลายใน เทคโนโลยี เมาส์ออปติคัล เมาส์ออปติคัลตัวแรกซึ่งประดิษฐ์โดยRichard F. Lyonที่บริษัท Xeroxในปี 1980 ใช้ชิปเซ็นเซอร์วงจรรวมNMOS 5 μm [22] [23]นับตั้งแต่เมาส์ออปติคัลเชิงพาณิชย์ตัวแรกอย่างIntelliMouseได้เปิดตัวในปี 1999 อุปกรณ์เมาส์ออปติคัลส่วนใหญ่ใช้เซ็นเซอร์ CMOS [24] [25]
การพัฒนาที่สำคัญในเทคโนโลยี การบีบอัดภาพดิจิทัลคือการแปลงโคไซน์แบบไม่ต่อเนื่อง (DCT) ซึ่ง เป็นเทคนิค การบีบอัดที่มีการสูญเสีย ข้อมูล ซึ่งเสนอครั้งแรกโดยนาซีร์ อาห์เหม็ดในปี 1972 [26]การบีบอัด DCT กลายเป็นพื้นฐานของJPEGซึ่งแนะนำโดยJoint Photographic Experts Groupในปี 1992 [27] JPEG บีบอัดภาพให้มีขนาดเล็กลงมาก และกลายมาเป็นรูปแบบไฟล์ภาพ ที่ใช้กันอย่างแพร่หลายที่สุด บนอินเทอร์เน็ต[28] อัลกอริธึมการบีบอัด DCT ที่มี ประสิทธิภาพสูงมีส่วนรับผิดชอบเป็นส่วนใหญ่สำหรับการแพร่กระจายของภาพดิจิทัลและรูปถ่ายดิจิทัล อย่างกว้างขวาง [29]โดยมีการผลิตภาพ JPEG หลายพันล้านภาพทุกวันในปี 2015 [อัปเดต][ 30]
เทคนิคการถ่ายภาพทางการแพทย์สร้างข้อมูลจำนวนมาก โดยเฉพาะจาก CT, MRI และ PET ดังนั้น การจัดเก็บและการสื่อสารข้อมูลภาพอิเล็กทรอนิกส์จึงเป็นสิ่งที่ห้ามทำหากไม่มีการบีบอัด ข้อมูล [31] [32] มาตรฐาน DICOMใช้การบีบอัดภาพJPEG 2000เพื่อจัดเก็บและส่งภาพทางการแพทย์ ต้นทุนและความเป็นไปได้ในการเข้าถึงชุดข้อมูลภาพขนาดใหญ่ผ่านแบนด์วิดท์ต่ำหรือหลากหลายนั้นได้รับการแก้ไขเพิ่มเติมด้วยการใช้มาตรฐาน DICOM อีกมาตรฐานหนึ่งที่เรียกว่าJPIPเพื่อให้สามารถสตรีมข้อมูลภาพJPEG 2000 ที่บีบอัดได้อย่างมีประสิทธิภาพ [33]
การประมวลผลสัญญาณอิเล็กทรอนิกส์ได้รับการปฏิวัติจากการนำเทคโนโลยี MOS มาใช้กันอย่างแพร่หลาย ในช่วงทศวรรษปี 1970 [34] เทคโนโลยี วงจรรวม MOSเป็นพื้นฐานสำหรับไมโครโปรเซสเซอร์และไมโครคอนโทรลเลอร์ ชิปเดี่ยวตัวแรก ในช่วงต้นทศวรรษปี 1970 [35] จากนั้นจึงเป็นชิป โปรเซสเซอร์สัญญาณดิจิทัล (DSP) ชิป เดี่ยวตัวแรกในช่วงปลายทศวรรษปี 1970 [36] [37]ตั้งแต่นั้นมา ชิป DSP ก็ถูกนำมาใช้กันอย่างแพร่หลายในการประมวลผลภาพดิจิทัล[36]
อั ลกอริธึม การบีบอัดภาพแบบ Discrete Cosine Transform (DCT) ถูกนำมาใช้กันอย่างแพร่หลายในชิป DSP โดยบริษัทหลายแห่งได้พัฒนาชิป DSP บนพื้นฐานของเทคโนโลยี DCT DCT ถูกใช้กันอย่างแพร่หลายสำหรับการเข้ารหัสการถอดรหัส การเข้ารหัสวิดีโอการเข้ารหัสเสียงการมัลติเพล็กซ์ สัญญาณควบคุมการส่งสัญญาณ การแปลงแอนะล็อกเป็นดิจิทัล การจัดรูปแบบความสว่างและความแตกต่างของสี และรูปแบบสี เช่นYUV444และYUV411 DCT ยังใช้สำหรับการเข้ารหัส เช่นการประมาณการเคลื่อนไหวการชดเชยการเคลื่อนไหวการทำนายระหว่างเฟรมการหาปริมาณการถ่วงน้ำหนักการรับรู้การเข้ารหัสเอนโทรปีการเข้ารหัสตัวแปร และเวกเตอร์การเคลื่อนไหวและการดำเนินการถอดรหัส เช่น การดำเนินการผกผันระหว่างรูปแบบสีต่างๆ ( YIQ , YUVและRGB ) เพื่อวัตถุประสงค์ในการแสดงผล DCT ยังใช้กันทั่วไปสำหรับ ชิปเข้ารหัส/ถอดรหัส โทรทัศน์ความละเอียดสูง (HDTV) [38]
ในปี 1972 วิศวกรจากบริษัท EMI Housfield ของอังกฤษได้คิดค้นอุปกรณ์เอกซเรย์คอมพิวเตอร์สำหรับการวินิจฉัยศีรษะ ซึ่งมักเรียกว่า CT (computer tomography) วิธีการนิวเคลียส CT นั้นอาศัยการฉายภาพของส่วนหัวของมนุษย์และประมวลผลด้วยคอมพิวเตอร์เพื่อสร้างภาพตัดขวางขึ้นมาใหม่ ซึ่งเรียกว่าการสร้างภาพใหม่ ในปี 1975 EMI ได้พัฒนาอุปกรณ์ CT สำหรับทั้งร่างกายสำเร็จ ซึ่งให้ภาพเอกซเรย์ที่ชัดเจนของส่วนต่างๆ ของร่างกายมนุษย์ ในปี 1979 เทคนิคการวินิจฉัยนี้ได้รับรางวัลโนเบล[7]เทคโนโลยีการประมวลผลภาพดิจิทัลสำหรับการใช้งานทางการแพทย์ได้รับการบรรจุเข้าสู่ หอเกียรติยศเทคโนโลยีอวกาศ ของ Space Foundationในปี 1994 [39]
ณ ปี 2010 มีการทำการศึกษาเกี่ยวกับการถ่ายภาพทางการแพทย์ไปแล้ว 5 พันล้านครั้งทั่วโลก[40] [41]การได้รับรังสีจากการถ่ายภาพทางการแพทย์ในปี 2006 คิดเป็นประมาณ 50% ของการได้รับรังสีไอออไนซ์ทั้งหมดในสหรัฐอเมริกา[42]อุปกรณ์การถ่ายภาพทางการแพทย์ผลิตโดยใช้เทคโนโลยีจากอุตสาหกรรมเซมิคอนดักเตอร์รวมถึงชิปวงจร รวม CMOS อุปกรณ์เซมิคอนดักเตอร์กำลังไฟฟ้าเซ็นเซอร์เช่นเซ็นเซอร์ภาพ (โดยเฉพาะเซ็นเซอร์ CMOS ) และไบโอเซ็นเซอร์และโปรเซสเซอร์ เช่นไมโครคอนโทรลเลอร์ไมโครโปรเซสเซอร์โปรเซสเซอร์สัญญาณดิจิทัลโปรเซสเซอร์สื่อและ อุปกรณ์ ระบบบนชิปณ ปี 2015 การขนส่งชิปการถ่ายภาพทางการแพทย์ประจำปีมีจำนวน 46 ล้านหน่วยและ1.1 พันล้านดอลลาร์ [ 43] [44][อัปเดต]
การประมวลผลภาพดิจิทัลช่วยให้สามารถใช้ขั้นตอนวิธีที่ซับซ้อนได้มากขึ้น จึงให้ประสิทธิภาพที่ซับซ้อนยิ่งขึ้นสำหรับงานง่ายๆ รวมไปถึงการนำวิธีที่ไม่สามารถทำได้ด้วยวิธีการแบบอะนาล็อกมาใช้
โดยเฉพาะอย่างยิ่ง การประมวลผลภาพดิจิทัลเป็นการประยุกต์ใช้ที่เป็นรูปธรรมและเทคโนโลยีเชิงปฏิบัติที่มีพื้นฐานมาจาก:
เทคนิคบางประการที่ใช้ในการประมวลผลภาพดิจิทัล ได้แก่:
ฟิลเตอร์ดิจิทัลใช้สำหรับเบลอและปรับภาพดิจิทัลให้คมชัดขึ้น การกรองสามารถทำได้ดังนี้:
ตัวอย่างต่อไปนี้แสดงทั้งสองวิธี: [46]
ประเภทตัวกรอง | เคอร์เนล หรือ มาส์ก | ตัวอย่าง |
---|---|---|
ภาพต้นฉบับ | ||
โลว์พาสเชิงพื้นที่ | ||
ไฮพาสเชิงพื้นที่ | ||
การแทนค่าฟูเรียร์ | รหัสเทียม: รูปภาพ = กระดานหมากรุก F = การแปลงฟูเรียร์ของภาพ แสดงภาพ: log(1+ค่าสัมบูรณ์(F)) | |
ฟูเรียร์โลว์พาส | ||
ฟูริเยร์ไฮพาส |
โดยทั่วไปแล้วภาพจะถูกเติมช่องว่างก่อนที่จะถูกแปลงเป็นปริภูมิฟูริเยร์ ภาพ ที่ผ่านการกรองแบบไฮพาสด้านล่างแสดงผลที่ตามมาจากเทคนิคการเติมช่องว่างที่แตกต่างกัน:
ไม่มีการบุนวม | ขอบซ้ำบุนวม |
---|---|
สังเกตว่าฟิลเตอร์ไฮพาสจะแสดงขอบพิเศษเมื่อมีการเติมขอบเป็นศูนย์เมื่อเทียบกับการเติมขอบที่ทำซ้ำ
ตัวอย่าง MATLAB สำหรับการกรองความถี่สูงในโดเมนเชิงพื้นที่
img = checkerboard ( 20 ); % generate checkerboard % ************************** SPATIAL DOMAIN **************************** klaplace =[ 0 - 1 0 ; - 1 5 - 1 ; 0 - 1 0 ]; % Laplacian filter kernel X = conv2 ( img , klaplace ); % convolve test img with %3x3 Laplacian kernel figure () imshow ( X ,[]) % show Laplacian filtered title ( 'Laplacian Edge Detection' )
การแปลงแบบ Affineช่วยให้สามารถแปลงภาพพื้นฐานได้ เช่น การปรับขนาด การหมุน การแปล การสะท้อน และการเฉือน ดังที่แสดงในตัวอย่างต่อไปนี้: [46]
ชื่อการแปลง | เมทริกซ์แอฟฟีน | ตัวอย่าง |
---|---|---|
ตัวตน | ||
การสะท้อนกลับ | ||
มาตราส่วน | ||
หมุน | โดยที่θ = π-6= 30° | |
การเฉือน |
ในการใช้เมทริกซ์แอฟฟีนกับภาพ ภาพจะถูกแปลงเป็นเมทริกซ์ซึ่งแต่ละรายการจะสอดคล้องกับความเข้มของพิกเซลในตำแหน่งนั้น จากนั้นตำแหน่งของพิกเซลแต่ละพิกเซลสามารถแสดงเป็นเวกเตอร์ที่ระบุพิกัดของพิกเซลนั้นในรูปภาพ [x, y] โดยที่ x และ y คือแถวและคอลัมน์ของพิกเซลในเมทริกซ์ของภาพ วิธีนี้ช่วยให้สามารถคูณพิกัดด้วยเมทริกซ์การแปลงแอฟฟีน ซึ่งจะให้ตำแหน่งที่จะคัดลอกค่าพิกเซลไปในรูปภาพเอาต์พุต
อย่างไรก็ตาม เพื่อให้เกิดการแปลงที่ต้องใช้การแปลงการแปล จำเป็นต้องใช้ พิกัดสามมิติที่เป็นเนื้อเดียวกันโดยทั่วไปแล้ว มิติที่สามจะถูกตั้งค่าเป็นค่าคงที่ที่ไม่ใช่ศูนย์ ซึ่งโดยปกติคือ 1 ดังนั้นพิกัดใหม่จะเป็น [x, y, 1] วิธีนี้ทำให้สามารถคูณเวกเตอร์พิกัดด้วยเมทริกซ์ 3 คูณ 3 ได้ ทำให้สามารถเลื่อนการแปลได้ ดังนั้น มิติที่สามซึ่งคือค่าคงที่ 1 จึงทำให้สามารถแปลได้
เนื่องจากการคูณเมทริกซ์เป็นการเชื่อมโยง การแปลงแอฟฟีนหลายรายการสามารถรวมเข้าเป็นการแปลงแอฟฟีนรายการเดียวได้โดยการคูณเมทริกซ์ของการแปลงแต่ละรายการตามลำดับที่ทำการแปลง ซึ่งจะทำให้ได้เมทริกซ์เดียวที่เมื่อใช้กับเวกเตอร์จุด จะให้ผลลัพธ์เดียวกันกับการแปลงแต่ละรายการทั้งหมดที่ดำเนินการกับเวกเตอร์ [x, y, 1] ตามลำดับ ดังนั้น ลำดับของเมทริกซ์การแปลงแอฟฟีนจึงสามารถลดขนาดลงเหลือเมทริกซ์การแปลงแอฟฟีนรายการเดียวได้
ตัวอย่างเช่น พิกัดสองมิติจะอนุญาตให้หมุนรอบจุดกำเนิด (0, 0) เท่านั้น แต่พิกัดสามมิติแบบเนื้อเดียวกันสามารถใช้เพื่อแปลจุดใดๆ ก็ได้เป็น (0, 0) ก่อน จากนั้นจึงหมุน และสุดท้ายแปลจุดกำเนิด (0, 0) กลับไปยังจุดเดิม (ตรงข้ามกับการแปลครั้งแรก) การแปลงแบบอะฟฟีนทั้ง 3 นี้สามารถรวมกันเป็นเมทริกซ์เดียวได้ จึงทำให้สามารถหมุนรอบจุดใดๆ ในภาพได้[47]
สัณฐานวิทยาทางคณิตศาสตร์เหมาะสำหรับการลดเสียงรบกวนในภาพองค์ประกอบโครงสร้างมีความสำคัญในสัณฐานวิทยาทางคณิตศาสตร์
ตัวอย่างต่อไปนี้เป็นเรื่องเกี่ยวกับองค์ประกอบโครงสร้าง ฟังก์ชันลดเสียงรบกวน ภาพเป็น I และองค์ประกอบโครงสร้างเป็น B จะแสดงดังด้านล่างและตาราง
เช่น
กำหนด Dilation(I, B)(i,j) = . ให้ Dilation(I,B) = D(I,B)
ดี(ไอ', บี)(1,1) =
กำหนด Erosion(I, B)(i,j) = . ให้ Erosion(I,B) = E(I,B)
อี(ไอ', บี)(1,1) =
หลังการขยายตัว หลังการกัดเซาะ
วิธีการเปิดเป็นเพียงการกัดกร่อนก่อนแล้วจึงขยายในขณะที่วิธีการปิดเป็นในทางกลับกัน ในความเป็นจริง D(I,B) และ E(I,B) สามารถนำมาใช้ได้โดยใช้Convolution
องค์ประกอบโครงสร้าง | หน้ากาก | รหัส | ตัวอย่าง |
---|---|---|---|
ภาพต้นฉบับ | ไม่มี | ใช้ Matlab เพื่ออ่านภาพต้นฉบับต้นฉบับ= imread ( 'scene.jpg' ); ภาพ= rgb2gray ( ต้นฉบับ); [ r , c , ช่อง] = ขนาด( ภาพ); se = ตรรกะ([ 1111 ; 1111 ; 1111 ]) ; [ p , q ] = ขนาด( se ) ; ครึ่งH = พื้น( p / 2 ) ; ครึ่งW = พื้น( q / 2 ) ; เวลา= 3 ; % denoising 3 ครั้งด้วยวิธี การทั้งหมด | |
การขยายตัว | ใช้ Matlab เพื่อขยายimwrite ( image , "scene_dil.jpg" ) extractmax = zeros ( size ( image ), class ( image )); สำหรับi = 1 : เวลาdil_image = imread ( 'scene_dil.jpg' ); สำหรับcol = ( halfW + 1 ): ( c - halfW ) สำหรับแถว= ( halfH + 1 ) : ( r - halfH ) dpointD = แถว- ครึ่ง H ; dpointU = แถว+ ครึ่ง H ; dpointL = col - ครึ่ง W ; dpointR = col + ครึ่ง W ; dneighbor = dil_image ( dpointD : dpointU , dpointL : dpointR ); ตัวกรอง= dneighbor ( se ); extractmax ( แถว, คอลัมน์) = max ( filter ); จบจบimwrite ( extractmax , "scene_dil.jpg" ); จบ | ||
การกัดเซาะ | ใช้ Matlab เพื่อการกัดเซาะimwrite ( image , 'scene_ero.jpg' ); extractmin = zeros ( size ( image ), class ( image )); สำหรับi = 1 : เวลาero_image = imread ( 'scene_ero.jpg' ); สำหรับcol = ( halfW + 1 ):( c - halfW ) สำหรับแถว= ( halfH + 1 ) :( r - halfH ) pointDown = row - halfH ; pointUp = row + halfH ; pointLeft = col - halfW ; pointRight = col + halfW ; neighbor = ero_image ( pointDown : pointUp , pointLeft : pointRight ); filter = neighbor ( se ) ; extractmin ( row , col ) = min ( filter ); end end imwrite ( extractmin , "scene_ero.jpg" ); end | ||
การเปิด | ใช้ Matlab เพื่อเปิดimwrite ( extractmin , "scene_opening.jpg" ) extractopen = zeros ( size ( image ), class ( image )); สำหรับi = 1 : เวลาdil_image = imread ( 'scene_opening.jpg' ); สำหรับcol = ( halfW + 1 ): ( c - halfW ) สำหรับแถว= ( halfH + 1 ) : ( r - halfH ) dpointD = แถว- ครึ่ง H ; dpointU = แถว+ ครึ่ง H ; dpointL = col - ครึ่ง W ; dpointR = col + ครึ่ง W ; dneighbor = dil_image ( dpointD : dpointU , dpointL : dpointR ); ตัวกรอง= dneighbor ( se ); extractopen ( แถว, คอลัมน์) = max ( filter ); จบจบimwrite ( extractopen , "scene_opening.jpg" ); จบ | ||
การปิด | ใช้ Matlab เพื่อปิดการขายimwrite ( extractmax , "scene_closing.jpg" ) extractclose = zeros ( size ( image ), class ( image )); สำหรับi = 1 : เวลาero_image = imread ( 'scene_closing.jpg' ); สำหรับcol = ( halfW + 1 ): ( c - halfW ) สำหรับแถว= ( halfH + 1 ) : ( r - halfH ) dpointD = แถว- ครึ่ง H ; dpointU = แถว+ ครึ่ง H ; dpointL = col - ครึ่ง W ; dpointR = col + ครึ่ง W ; dneighbor = ero_image ( dpointD : dpointU , dpointL : dpointR ); ตัวกรอง= dneighbor ( se ); extractclose ( แถว, คอลัมน์) = min ( filter ); จบจบimwrite ( extractclose , "scene_closing.jpg" ); จบ |
โดยทั่วไปกล้องดิจิทัลจะมีฮาร์ดแวร์ประมวลผลภาพดิจิทัลเฉพาะทาง ซึ่งอาจเป็นชิปเฉพาะหรือวงจรเพิ่มเติมในชิปอื่น เพื่อแปลงข้อมูลดิบจากเซ็นเซอร์ภาพเป็น ภาพ ที่แก้ไขสีแล้วในรูปแบบไฟล์ภาพ มาตรฐาน เทคนิคหลังการประมวลผลเพิ่มเติมจะช่วยเพิ่มความคมชัดของขอบภาพหรือความอิ่มตัวของสีเพื่อสร้างภาพที่ดูเป็นธรรมชาติมากขึ้น
Westworld (1973) เป็นภาพยนตร์เรื่องยาวเรื่องแรกที่ใช้การประมวลผลภาพดิจิทัลเพื่อสร้าง ภาพ แบบพิกเซลเพื่อจำลองมุมมองของหุ่นยนต์ [48]การประมวลผลภาพยังใช้กันอย่างแพร่หลายเพื่อสร้าง เอฟเฟก ต์โครมาคีย์ที่ใช้แทนพื้นหลังของนักแสดงด้วยทิวทัศน์ธรรมชาติหรือศิลปะ
การตรวจจับใบหน้าสามารถทำได้โดยใช้สัณฐานวิทยาทางคณิตศาสตร์การแปลงโคไซน์แบบแยกส่วนซึ่งมักเรียกว่า DCT และการฉายแนวนอน (คณิตศาสตร์ )
วิธีทั่วไปที่มีวิธีการตามคุณลักษณะ
วิธีการตรวจจับใบหน้าโดยอาศัยคุณลักษณะ คือ การใช้โทนสีผิว การตรวจจับขอบ รูปร่างใบหน้า และคุณลักษณะของใบหน้า (เช่น ตา ปาก เป็นต้น) เพื่อตรวจจับใบหน้า โทนสีผิว รูปร่างใบหน้า และองค์ประกอบเฉพาะทั้งหมดที่มีเฉพาะในใบหน้าของมนุษย์เท่านั้นที่สามารถอธิบายได้ว่าเป็นคุณลักษณะ
คำอธิบายกระบวนการ
คุณภาพของภาพอาจได้รับอิทธิพลจากการสั่นของกล้อง การเปิดรับแสงมากเกินไป การกระจายระดับสีเทาที่รวมศูนย์เกินไป และสัญญาณรบกวน เป็นต้น ตัวอย่างเช่น ปัญหาสัญญาณรบกวนสามารถแก้ไขได้โดยใช้ วิธี การปรับ ให้ราบรื่น ขณะที่ปัญหาการกระจายระดับสีเทาสามารถปรับปรุงได้ด้วยการปรับสมดุลฮิสโทแกรม
วิธีการทำให้เรียบเนียน
ในการวาดภาพ หากมีสีที่ไม่พอใจ ให้นำสีที่ไม่พอใจมาเฉลี่ยสีเหล่านั้น นี่คือวิธีง่ายๆ ในการคิดถึงวิธีการปรับให้เรียบ
วิธีการปรับให้เรียบเนียนสามารถทำได้โดยใช้มาสก์และคอนโวลูชั่นตัวอย่างเช่น ใช้ภาพขนาดเล็กและมาสก์ดังด้านล่าง
รูปภาพเป็น
หน้ากากคือ
หลังจากการม้วนและปรับให้เรียบแล้ว ภาพจะเป็น
การสังเกตภาพ[1, 1], ภาพ[1, 2], ภาพ[2, 1] และภาพ[2, 2]
พิกเซลของภาพต้นฉบับคือ 1, 4, 28, 30 หลังจากปรับให้เรียบแล้ว พิกเซลจะกลายเป็น 9, 10, 9, 9 ตามลำดับ
รูปภาพใหม่[1,1] = * (รูปภาพ[0,0]+รูปภาพ[0,1]+รูปภาพ[0,2]+รูปภาพ[1,0]+รูปภาพ[1,1]+รูปภาพ[1,2]+รูปภาพ[2,0]+รูปภาพ[2,1]+รูปภาพ[2,2])
ภาพใหม่[1, 1] = floor( * (2+5+6+3+1+4+1+28+30)) = 9
ภาพใหม่[1, 2] = floor({ * (5+6+5+1+4+6+28+30+2)) = 10
ภาพใหม่[2,1] = floor( * (3+1+4+1+28+30+7+3+2)) = 9
ภาพใหม่[2,2] = floor( * (1+4+6+28+30+2+3+2+2)) = 9
วิธีฮิสโทแกรมระดับสีเทา
โดยทั่วไปแล้ว เมื่อกำหนดฮิสโทแกรมระดับสีเทาจากภาพดังรูปด้านล่าง การเปลี่ยนฮิสโทแกรมให้กระจายสม่ำเสมอจากภาพมักเรียกว่าการปรับสมดุลฮิสโทแกรม
ในช่วงเวลาแยกส่วน พื้นที่ของฮิสโทแกรมระดับสีเทาคือ(ดูรูปที่ 1) ในขณะที่พื้นที่ของการกระจายสม่ำเสมอคือ(ดูรูปที่ 2) ชัดเจนว่าพื้นที่จะไม่เปลี่ยนแปลงดังนั้น
จากการกระจายแบบสม่ำเสมอ ความน่าจะเป็นคือในขณะที่
ในเวลาต่อเนื่อง สมการคือ
ยิ่งไปกว่านั้น เมื่อพิจารณาจากนิยามของฟังก์ชัน วิธีฮิสโทแกรมระดับสีเทาจะเหมือนกับการค้นหาฟังก์ชันที่สอดคล้องกับ f(p)=q
วิธีการปรับปรุง | ปัญหา | ก่อนการปรับปรุง | กระบวนการ | หลังจากการปรับปรุง |
---|---|---|---|---|
วิธีการทำให้เรียบเนียน | เสียงรบกวน โดยใช้ Matlab จะเพิ่มเกลือและพริกไทยพร้อมพารามิเตอร์ 0.01 |
| ||
การปรับสมดุลฮิสโทแกรม | การกระจายระดับสีเทามีการรวมศูนย์มากเกินไป | อ้างอิงการปรับสมดุลฮิสโทแกรม |
Cyclops เป็นกล้องดิจิตอลตัวแรก
ระบบถ่ายภาพทางการแพทย์สร้างภาพที่แม่นยำมากขึ้นด้วยคุณภาพที่ปรับปรุงดีขึ้นโดยใช้ความละเอียดเชิงพื้นที่และความลึกบิตสีที่สูงขึ้น การปรับปรุงดังกล่าวเพิ่มปริมาณข้อมูลที่ต้องจัดเก็บ ประมวลผล และส่ง
เนื่องจากมีข้อมูลภาพทางการแพทย์จำนวนมาก กระบวนการส่งข้อมูลจึงซับซ้อนในแอปพลิเคชันการแพทย์ทางไกล ดังนั้น เพื่อปรับสตรีมบิตข้อมูลให้เข้ากับข้อจำกัดที่เกี่ยวข้องกับแบนด์วิดท์ การลดขนาดของข้อมูลโดยการบีบอัดภาพจึงมีความจำเป็น
ออกไซด์เซมิคอนดักเตอร์ (MOSFET) เป็นอุปกรณ์แอ็กทีฟที่ใช้กันแพร่หลายที่สุดในการรวมวงจรรวมดิจิทัลขนาดใหญ่ (VLSI) ในช่วงทศวรรษ 1970 ส่วนประกอบเหล่านี้ได้ปฏิวัติการประมวลผลสัญญาณอิเล็กทรอนิกส์ ระบบควบคุม และคอมพิวเตอร์
{{cite book}}
: |website=
ไม่สนใจ ( ช่วยด้วย ){{cite book}}
: CS1 maint: location missing publisher (link)