文章

RESPONSIBLE AI

24/04/2023

คุณจรีพร จารุกรสกุล

ประธานคณะกรรมการบริหาร และประธานเจ้าหน้าที่บริหารกลุ่ม

บริษัท ดับบลิวเอชเอ คอร์ปอเรชั่น จำกัด (มหาชน)

ตลอดช่วงเดือนที่ผ่านมา จากการที่เราได้มีโอกาสพูดคุยกันถึงการนำเทคโนโลยี AI มาปรับใช้ในภาคธุรกิจและอุตสาหกรรม รวมถึงแนวโน้ม/ทิศทางการพัฒนาที่จะเกิดขึ้นในอนาคต คงทำให้ทุกท่านเห็นภาพอย่างชัดเจนขึ้นว่า AI เข้ามามีบทบาทต่อการพัฒนาเศรษฐกิจและสังคมอย่างไร สำหรับวันนี้ ผู้เขียนจะขอมาพูดคุยถึงอีกด้านของ AI ซึ่งเป็นประเด็นความกังวลเกี่ยวกับการพัฒนาเทคโนโลยีอัจฉริยะ

แม้ว่าศักยภาพของ AI จะสามารถเข้ามาช่วยเพิ่มขีดความสามารถให้กับธุรกิจ อีกทั้งยังช่วยยกระดับคุณภาพชีวิตความเป็นอยู่ของมนุษย์ แต่หากการพัฒนาของเทคโนโลยีดังกล่าวขาดการกำกับดูแล/ควบคุมที่ดีก็สามารถนำมาซึ่งผลกระทบเชิงลบในหลายแง่มุมได้เช่นกัน โดยหนึ่งในสิ่งที่พูดถึงกันมากที่สุดคงหนีไม่พ้นเรื่องความปลอดภัยและความเป็นส่วนตัวจากการเก็บข้อมูลส่วนบุคคลไปใช้เพื่อสร้างประโยชน์ทางธุรกิจโดยไม่ได้รับความยินยอมจากผู้บริโภค

นอกจากนี้ ยังมีประเด็นที่อาจสร้างผลกระทบต่อสังคมในวงกว้าง ไม่ว่าจะเป็น ความอคติและการเลือกปฏิบัติ (Biased and Discriminatory) ของระบบประมวลผลที่เกิดจากชุดข้อมูลที่มนุษย์เลือกใช้ในการสร้างโมเดล AI ซึ่งสามารถนำไปสู่การเลือกปฏิบิติทั้งทางเพศ สีผิว เชื้อชาติ หรือ การสร้างและเผยแพร่ข้อมูลบิดเบือนจากเทคโนโลยี Deepfake ที่สามารถสร้างวิดีโอและเสียงจำลองที่เหมือนจริงจนคนไม่สามารถแยกข้อมูลที่ถูกต้องได้ หรือ ความไม่ชัดเจนของกฎหมายที่เกี่ยวข้อง เช่น การคุ้มครองลิขสิทธิ์และทรัพย์สินทางปัญญา ความรับผิดชอบสำหรับความบกพร่อง/ความผิดพลาดของเทคโนโลยี ฯลฯ ที่จะทำให้เกิดเป็นประเด็นถกเถียงกันในภายหลัง

ด้วยเหตุนี้ จึงเกิดแนวคิดเกี่ยวกับแนวทางการใช้งาน AI อย่างมีความรับผิดชอบและเกิดประโยชน์สูงสุด หรือ Responsible AI ซึ่งเป็นแนวปฏิบัติสำหรับการออกแบบ การพัฒนา และการประยุกต์ใช้ AI โดยคำถึงจริยธรรม ความรับผิดชอบต่อผู้ใช้งานและสังคมโดยรวมอย่างครอบคลุม เพื่อสร้างให้เทคโนโลยีสามารถพัฒนาภายใต้กรอบจริยธรรมและกฎหมายได้อย่างสมบูรณ์แบบ โดยปัจจุบันประเทศต่างๆ ได้เริ่มกำหนดนโยบายและกฎระเบียบข้อบังคับเกี่ยวกับ AI เพื่อตอบสนองต่อผลกระทบต่างๆ ที่คาดว่าจะเกิดขึ้น อาทิเช่น Artificial Intelligence Act (AIA) ของสหภาพยุโรป เพื่อใช้กำกับดูแลขอบเขตการใช้งาน AI ในบริษัทต่างๆ เพื่อให้มั่นใจได้ว่าการพัฒนาและการใช้ AI นั้นปลอดภัย มีจริยธรรม และเคารพสิทธิขั้นพื้นฐาน หรือ AI Bill of Rights ของสหรัฐอเมริกา เพื่อช่วยให้มั่นใจว่าสิทธิ์ของผู้ใช้จะได้รับการคุ้มครอง หรือ Artificial Intelligence and Data Act (AIDA) ของแคนาดา ซึ่งเป็นส่วนหนึ่งของ Digital Charter Implementation Act 2022 เพื่อการกำกับดูแลและส่งเสริมการนำเทคโนโลยีมาใช้อย่างมีความรับผิดชอบ เป็นต้น

อย่างไรก็ตาม ไม่ได้มีเพียงแค่ภาครัฐเท่านั้นที่เห็นความสำคัญของการเตรียมความพร้อมเพื่อรับมือกับผลกระทบที่อาจเกิดขึ้น แต่ในส่วนของภาคเอกชนเองก็ได้มีความพยายามพัฒนาหลักปฏิบัติเพื่อเป็นแนวทางในการพัฒนาเทคโนโลยีที่มีความรับผิดชอบเช่นกัน ตัวอย่างเช่น บริษัทเทคโนโลยียักษ์ใหญ่อย่าง Apple, Google, Microsoft ฯลฯ ที่ต่างกำหนดหลักการ Responsible AI เพื่อเป็นแนวทางในการวิจัยและพัฒนาด้วยหลักจริยธรรมโดยคำนึงถึงความปลอดภัยและให้ความสำคัญกับผู้คนเป็นอันดับแรก เป็นต้น

ในอนาคต Responsible AI จะยิ่งเข้ามามีบทบาทมากยิ่งขึ้นต่อการพัฒนาเทคโนโลยี การดำเนินธุรกิจ ตลอดจนการกำหนดกฎระเบียบ อย่างไรก็ตาม ท่ามกลางการกำกับดูแลและการจัดการที่เข้มข้นมากยิ่งขึ้น การสร้างความสมดุลระหว่างการลดผลกระทบเชิงลบที่เกิดจากใช้งาน AI กับการพัฒนาต่อยอดเทคโนโลยีเพื่อสร้างให้เกิดประโยชน์สูงสุดนั้นก็ถือเป็นสิ่งที่ต้องพิจารณากันอย่างละเอียดต่อไป