This is the Trace Id: bde594b094f3f5ed5a8e4dcc7cfe3625
ข้ามไปที่เนื้อหาหลัก
Security Insider

คู่มือ Microsoft สำหรับการรักษาความปลอดภัยขององค์กรที่ขับเคลื่อนโดย AI: การเริ่มต้นใช้งาน

ผู้หญิงกำลังใช้หน้าจอสัมผัส

การเริ่มต้นใช้งานแอปพลิเคชัน AI

ปัญญาประดิษฐ์ (AI) กำลังพลิกโฉมการดำเนินธุรกิจ ปลดล็อกนวัตกรรม ในขณะที่ก่อให้เกิดความเสี่ยงใหม่ๆ ตั้งแต่ Shadow AI (เครื่องมือระดับผู้บริโภคที่นำมาใช้โดยไม่มีการควบคุมดูแล) ไปจนถึงการโจมตีแบบแทรกพร้อมท์ รวมถึงกฎระเบียบที่พัฒนาอย่างต่อเนื่อง เช่น กฎหมายด้าน AI ของสหภาพยุโรป องค์กรต่างๆ จะต้องจัดการกับความท้าทายเหล่านี้เพื่อใช้ AI อย่างปลอดภัย

คู่มือนี้ครอบคลุมถึงความเสี่ยงที่เกี่ยวข้องกับ AI ได้แก่ การรั่วไหลของข้อมูล ภัยคุกคามที่กำลังเกิดขึ้น และความท้าทายในการปฏิบัติตามข้อบังคับ รวมไปถึงความเสี่ยงเฉพาะของ AI แบบเอเจนต์ นอกจากนี้ คู่มือยังให้คำแนะนำและขั้นตอนปฏิบัติที่เป็นรูปธรรมที่ต้องปฏิบัติตามตามเฟรมเวิร์กการเริ่มนำ AI มาใช้ สำหรับข้อมูลเชิงลึกและขั้นตอนการดำเนินการที่เจาะลึกยิ่งขึ้น ให้ดาวน์โหลดคู่มือ

AI เป็นตัวพลิกเกมก็ต่อเมื่อคุณสามารถรักษาความปลอดภัยได้ มาเริ่มกันเลย

เมื่อองค์กรเปิดรับ AI ผู้นำต้องจัดการความท้าทายหลักสามประการ:
  • ผู้นำ 80% ระบุว่าการรั่วไหลของข้อมูลเป็นปัญหาสำคัญที่สุด 1 เครื่องมือ Shadow AI ซึ่งใช้โดยไม่ได้รับการอนุมัติจากฝ่าย IT อาจเปิดเผยข้อมูลที่ละเอียดอ่อน ทำให้มีความเสี่ยงต่อการละเมิดเพิ่มมากขึ้น
  • องค์กร 88% กังวลเกี่ยวกับผู้ไม่ประสงค์ดีที่เข้ามาควบคุมระบบ AI 2 การโจมตีต่างๆ เช่น การแทรกพร้อมท์ ใช้ประโยชน์จากช่องโหว่ในระบบ AI ซึ่งเน้นย้ำถึงความจำเป็นในการป้องกันเชิงรุก
  • ผู้นำ 52% ยอมรับว่ามีความไม่แน่นอนเกี่ยวกับการจัดการกฎระเบียบด้าน AI 3 การปฏิบัติตามเฟรมเวิร์กต่างๆ เช่น กฎหมายด้าน AI ของสหภาพยุโรป ถือเป็นสิ่งสำคัญในการส่งเสริมความไว้วางใจและรักษาแรงผลักดันในการสร้างสรรค์นวัตกรรม

AI แบบเอเจนต์มีศักยภาพในการเปลี่ยนแปลง แต่ระบบอัตโนมัติทำให้เกิดความท้าทายด้านความปลอดภัยเฉพาะซึ่งต้องมีการจัดการความเสี่ยงเชิงรุก ด้านล่างนี้คือความเสี่ยงสำคัญและกลยุทธ์ที่ได้รับการปรับแต่งเพื่อรับมือกับความเสี่ยงเหล่านี้:

อุปาทานและผลลัพธ์ที่ไม่ได้ตั้งใจ

ระบบ AI แบบเอเจนต์อาจสร้างผลลัพธ์ที่ไม่ถูกต้อง ล้าสมัย หรือบิดเบือน ส่งผลให้การทำงานหยุดชะงักหรือตัดสินใจผิดพลาด

เพื่อบรรเทาความเสี่ยงเหล่านี้ องค์กรต่างๆ ควรนำกระบวนการตรวจสอบที่เข้มงวดมาใช้เพื่อตรวจสอบความถูกต้องและความเกี่ยวข้องของผลลัพธ์ที่สร้างโดย AI การอัปเดตข้อมูลการฝึกเป็นประจำจะช่วยให้มั่นใจว่าสอดคล้องกับข้อมูลปัจจุบัน ในขณะที่เส้นทางการยกระดับสำหรับกรณีที่ซับซ้อนช่วยให้มนุษย์สามารถดำเนินการได้เมื่อจำเป็น การควบคุมดูแลโดยมนุษย์ยังคงมีความจำเป็นต่อการรักษาความน่าเชื่อถือและความไว้วางใจในการดำเนินงานที่ขับเคลื่อนด้วย AI

การพึ่งพาการตัดสินใจของ AI มากเกินไป

การเชื่อถือระบบ AI แบบเอเจนต์โดยไม่มีการตรวจสอบอาจนำไปสู่ช่องโหว่ได้เมื่อผู้ใช้ดำเนินการกับผลลัพธ์ที่ผิดพลาดโดยไม่ตรวจสอบความถูกต้อง

องค์กรต่างๆ ควรกำหนดนโยบายที่กำหนดให้ต้องมีการตรวจสอบโดยมนุษย์สำหรับการตัดสินใจที่มีความสำคัญสูงซึ่งได้รับอิทธิพลจาก AI การฝึกอบรมพนักงานเกี่ยวกับข้อจำกัดของ AI ช่วยส่งเสริมให้เกิดความสงสัยโดยใช้ข้อมูล ซึ่งจะช่วยลดโอกาสที่จะเกิดข้อผิดพลาด การรวมข้อมูลเชิงลึกของ AI เข้ากับการตัดสินใจของมนุษย์ผ่านกระบวนการตัดสินใจแบบหลายชั้นจะช่วยเสริมสร้างความยืดหยุ่นโดยรวมและป้องกันการพึ่งพามากเกินไป

แนวทางการโจมตีใหม่ๆ

ความเป็นอิสระและความสามารถในการปรับตัวของ AI แบบเอเจนต์สร้างโอกาสให้ผู้โจมตีสามารถใช้ประโยชน์จากช่องโหว่ต่างๆ นำมาซึ่งความเสี่ยงทั้งในด้านการดำเนินงานและระบบ

ความเสี่ยงในการดำเนินงาน ได้แก่ การจัดการระบบ AI เพื่อดำเนินการที่เป็นอันตราย เช่น งานที่ไม่ได้รับอนุญาตหรือความพยายามฟิชชิ่ง องค์กรต่างๆ สามารถบรรเทาความเสี่ยงเหล่านี้ได้ด้วยการนำมาตรการรักษาความปลอดภัยที่มีเสถียรภาพมาใช้ รวมถึงการตรวจหาสิ่งผิดปกติในเวลาจริง การเข้ารหัส และการควบคุมการเข้าถึงที่เข้มงวด
ความเสี่ยงในระบบเกิดขึ้นเมื่อเอเจนต์ที่มีช่องโหว่รบกวนระบบที่เชื่อมต่อกัน ส่งผลให้เกิดความล้มเหลวแบบต่อเนื่อง กลไกป้องกันความล้มเหลว โพรโทคอลความซ้ำซ้อน และการตรวจสอบเป็นประจำซึ่งสอดคล้องกับเฟรมเวิร์กการรักษาความปลอดภัยทางไซเบอร์ เช่น NIST ช่วยลดภัยคุกคามเหล่านี้และเสริมการป้องกันต่อการโจมตีจากปรปักษ์

ความรับผิดชอบและการรับผิด

AI แบบเอเจนต์มักจะทำงานโดยไม่มีการควบคุมดูแลโดยตรงจากมนุษย์ ทำให้เกิดคำถามที่ซับซ้อนเกี่ยวกับความรับผิดชอบและการรับผิดสำหรับข้อผิดพลาดหรือความล้มเหลว

องค์กรควรกำหนดเฟรมเวิร์กความรับผิดชอบที่ชัดเจนซึ่งระบุบทบาทและความรับผิดชอบสำหรับผลลัพธ์ที่เกี่ยวข้องกับ AI คู่มือที่โปร่งใสของกระบวนการตัดสินใจด้วย AI รองรับการระบุข้อผิดพลาดและการกำหนดการรับผิด ความร่วมมือกับทีมกฎหมายช่วยให้มั่นใจได้ว่าเป็นไปตามกฎระเบียบ ในขณะที่การนำมาตรฐานทางจริยธรรมในการกำกับดูแล AI มาใช้จะสร้างความไว้วางใจและลดความเสี่ยงด้านชื่อเสียง

เมื่อใช้นวัตกรรม AI ใหม่ๆ เช่น เอเจนต์ องค์กรต้องสร้างรากฐานที่มั่นคงตามหลักการ Zero Trust ซึ่งก็คือ "อย่าวางใจ ตรวจสอบอยู่เสมอ" แนวทางนี้ช่วยให้มั่นใจได้ว่าการโต้ตอบทุกครั้งผ่านการรับรอง ได้รับอนุญาต และตรวจสอบอย่างต่อเนื่อง แม้ว่าการบรรลุ Zero Trust จะต้องใช้เวลา แต่การใช้กลยุทธ์แบบเป็นขั้นตอนจะช่วยให้มีความคืบหน้าอย่างต่อเนื่องและสร้างความเชื่อมั่นในการผสานรวม AI อย่างปลอดภัย

เฟรชรเวิร์กการเริ่มนำ AI ไปใช้ของ Microsoft มุ่งเน้นไปที่สามขั้นตอนสำคัญ: กำกับดูแล AI จัดการ AI และรักษาความปลอดภัยของ AI

การแก้ไขปัญหาในพื้นที่เหล่านี้จะช่วยให้องค์กรสามารถวางรากฐานสำหรับการใช้ AI ที่รับผิดชอบพร้อมทั้งบรรเทาความเสี่ยงที่สำคัญได้

เพื่อให้ประสบความสำเร็จ ควรให้ความสำคัญกับบุคลากรโดยฝึกอบรมพนักงานให้สามารถรับรู้ความเสี่ยงจาก AI และใช้เครื่องมือที่ได้รับอนุมัติอย่างปลอดภัย ส่งเสริมการทำงานร่วมกันระหว่างทีม IT ความปลอดภัย และธุรกิจ เพื่อให้แน่ใจว่ามีแนวทางที่เป็นหนึ่งเดียว ส่งเสริมความโปร่งใสโดยการสื่อสารแผนริเริ่มด้านการรักษาความปลอดภัย AI ของคุณอย่างเปิดเผยเพื่อสร้างความไว้วางใจและแสดงความเป็นผู้นำ

ด้วยกลยุทธ์ที่ถูกต้องและยึดหลัก Zero Trust คุณสามารถลดความเสี่ยง ปลดล็อกนวัตกรรม และจัดการขอบเขต AI ที่เปลี่ยนแปลงไปได้อย่างมั่นใจ

เพิ่มเติมจากการรักษาความปลอดภัย

การจัดการภัยคุกคามทางไซเบอร์และการเสริมสร้างการป้องกันในยุคของ AI

ความก้าวหน้าด้านปัญญาประดิษฐ์ (AI) ก่อให้เกิดภัยคุกคามและโอกาสใหม่ๆ สำหรับการรักษาความปลอดภัยทางไซเบอร์ ค้นพบวิธีที่ผู้ดำเนินการภัยคุกคามใช้ AI เพื่อทำการโจมตีที่ซับซ้อนยิ่งขึ้น จากนั้นทบทวนแนวทางปฏิบัติที่ช่วยป้องกันภัยคุกคามทางไซเบอร์แบบดั้งเดิมและที่ใช้งาน AI

CISO ที่ขับเคลื่อนโดย AI: การช่วยให้มีกลยุทธ์ที่ดียิ่งขึ้นด้วยข้อมูลเชิงลึกด้านข่าวกรองเกี่ยวกับภัยคุกคาม

CISO ที่นำ AI สร้างสรรค์มาปรับใช้ในการรักษาความปลอดภัยจะได้รับประโยชน์หลักสามประการ ได้แก่ ข้อมูลเชิงลึกด้านข่าวกรองเกี่ยวกับภัยคุกคามที่ได้รับการปรับปรุง การตอบสนองต่อภัยคุกคามที่รวดเร็วขึ้น และการตัดสินใจเชิงกลยุทธ์ที่ได้รับความช่วยเหลือ เรียนรู้จากสถานการณ์ตัวอย่างสามสถานการณ์ และค้นพบว่าเหตุใด CISO ถึง 85% จึงมองว่า AI มีความสำคัญต่อความปลอดภัย

Microsoft Digital Defense Report ปี 2024

Microsoft Digital Defense Report ปี 2024 วิเคราะห์ภัยคุกคามทางไซเบอร์ที่พัฒนาอยู่เสมอจากกลุ่มภัยคุกคามที่กำกับโดยรัฐและอาชญากรไซเบอร์ ให้ข้อมูลเชิงลึกและคำแนะนำใหม่ๆ เพื่อเพิ่มความยืดหยุ่นและเสริมสร้างการป้องกัน และสำรวจผลกระทบที่เพิ่มมากขึ้นของ AI สร้างสรรค์ต่อการรักษาความปลอดภัยทางไซเบอร์

ติดตาม Microsoft Security