Anthropic เปิดตัวเครื่องมือความปลอดภัย AI Claude Code Security หลายบริษัทด้านความปลอดภัยทางไซเบอร์ต่างก็ร่วงลงทันที

ChainNewsAbmedia

บิ๊กเทคโนโลยีด้านปัญญาประดิษฐ์ Anthropic เมื่อเร็ว ๆ นี้ได้เปิดตัวเครื่องมือใหม่ชื่อ Claude Code Security ซึ่งเป็นการก้าวเข้าสู่พื้นที่สำคัญด้านความปลอดภัยทางไซเบอร์ โดยอ้างว่าสามารถสแกนโค้ดด้วยตนเอง ค้นหาช่องโหว่ที่มีความเสี่ยงสูง และเสนอแนวทางการแก้ไข ซึ่งเป็นการกระตุ้นให้เกิดการประเมินใหม่ต่อโมเดลธุรกิจด้านความปลอดภัยเครือข่ายแบบดั้งเดิม ข่าวนี้ทำให้หุ้นกลุ่มเทคโนโลยีด้านความปลอดภัยหลายแห่งร่วงลงทันที แสดงให้เห็นว่านักลงทุนกังวลว่า AI อาจเปลี่ยนแปลงโครงสร้างการแข่งขันในอุตสาหกรรมนี้

จากการช่วยเหลือสู่การเป็นผู้นำ: Claude Code Security ท้าทายโมเดลการตรวจจับช่องโหว่แบบเดิม

Claude Code Security ที่พัฒนาโดย Anthropic เป็นผลิตภัณฑ์แรกที่ออกแบบมาเพื่อทีมความปลอดภัยขององค์กร แตกต่างจากเครื่องมือตรวจสอบแบบเดิมที่เพียงเปรียบเทียบรูปแบบช่องโหว่ที่รู้จัก ระบบนี้สามารถวิเคราะห์เชิงตรรกะของทั้งคลังโค้ด เข้าใจการเชื่อมต่อและการไหลของข้อมูลระหว่างโมดูลต่าง ๆ จำลองวิธีการตรวจสอบของนักวิจัยด้านความปลอดภัยมนุษย์ในปัจจุบัน ขณะนี้ยังอยู่ในรูปแบบการพรีวิวสำหรับองค์กรและทีมลูกค้าเท่านั้น

ตามคำอธิบายของบริษัท โมเดล Claude Opus 4.6 ที่ติดตั้งอยู่ในระบบ ได้ตรวจพบช่องโหว่มากกว่า 500 จุดในโค้ดที่เปิดเผยในสภาพแวดล้อมการผลิต ซึ่งรวมถึงปัญหาที่รุนแรงซึ่งไม่เคยถูกตรวจพบมาก่อนเป็นเวลาหลายสิบปี

ในบล็อกโพสต์ ทีมงานเน้นย้ำว่าการค้นพบแต่ละช่องโหว่ต้องผ่านกระบวนการตรวจสอบหลายขั้นตอนเพื่อป้องกันความผิดพลาด และระบบจะไม่ทำการแก้ไขโค้ดโดยอัตโนมัติ แต่จะต้องได้รับการตรวจสอบและอนุมัติจากนักพัฒนาก่อน:

“เราเชื่อว่าในอนาคตอันใกล้นี้ โค้ดจำนวนมากทั่วโลกจะถูกสแกนโดย AI”

หุ้นด้านความปลอดภัยเครือข่ายร่วงลงรวมกัน: เครื่องมืออัตโนมัติ AI กระทบโมเดลธุรกิจเดิม?

หลังจากข่าวนี้เปิดเผย ตลาดการลงทุนตอบสนองอย่างรวดเร็ว หลายบริษัทด้านความปลอดภัยและคลาวด์เซอร์วิสหุ้นร่วงอย่างเห็นได้ชัด เช่น

CrowdStrike (CRWD) ร่วง 7.95%

Okta (OKTA) ร่วง 9.18%

Cloudflare (NET) ร่วง 8.05%

SailPoint (SAIL) ร่วง 9.44%

Zscaler (ZS) ร่วง 5.47%

สำนักข่าวบลูมเบิร์กชี้ให้เห็นว่าความกังวลคือ หาก AI สามารถค้นหาและแนะนำการแก้ไขช่องโหว่ได้โดยอัตโนมัติ ความเชื่อมั่นในโมเดลแบบ “ตรวจสอบภายหลัง” และ “การตรวจจับภัยคุกคาม” แบบเดิมอาจลดลง นักลงทุนบางส่วนมองว่า อุตสาหกรรมความปลอดภัยไซเบอร์จำเป็นต้องเปลี่ยนจากการรับมือแบบตอบสนอง ไปสู่การบริหารจัดการช่องโหว่อัตโนมัติและเชิงรุกมากขึ้น ซึ่งอาจกดดันโครงสร้างรายได้แบบสมัครสมาชิกเดิม

เสียงในอุตสาหกรรม: AI เป็นภัยคุกคามหรือเครื่องมือ?

อย่างไรก็ตาม ผู้ก่อตั้งทีมความปลอดภัย SlowMist คุณ余弦 ได้แสดงความระมัดระวังต่อผลกระทบของเครื่องมือนี้ เขาชี้ว่า AI ได้ถูกนำไปใช้ในการทดสอบแบบ White-box และ Black-box มาแล้ว ซึ่งให้ผลลัพธ์ที่ดี แต่ก็ยังมีปัญหาเรื่องการแจ้งเตือนผิดพลาดและการพลาดแจ้งเตือน ซึ่งสุดท้ายยังต้องอาศัยผู้เชี่ยวชาญในการวิเคราะห์ แต่ก็สามารถเพิ่มประสิทธิภาพในการตรวจจับข้อผิดพลาดได้จริง

“ไม่ใช่แค่ในอุตสาหกรรมความปลอดภัยไซเบอร์ แต่เกือบทุกอุตสาหกรรมจะได้รับผลกระทบจาก AI เพียงแต่เป็นเรื่องของเวลาที่จะมาถึงเท่านั้น ถ้าไม่สู้ก็เข้าร่วม ถ้าร่วมก็ต้องควบคุม พัฒนาความสามารถของตัวเอง แล้วโมเดลธุรกิจจะอยู่รอด”

ในรอบหนึ่งเดือนที่ผ่านมา หุ้นกลุ่ม SaaS, กลุ่มข้อมูลการเงิน และกลุ่มความปลอดภัยทางเครือข่าย ต่างก็ได้รับผลกระทบอย่างหนัก นักลงทุนกังวลต่อเครื่องมือสร้างโค้ด AI อัตโนมัติ เช่น ของ OpenAI และ Anthropic ซึ่งอาจส่งผลต่อการเติบโตและอัตรากำไรของซอฟต์แวร์แบบดั้งเดิม

(Anthropic เปิดตัว Claude Cowork ทำให้ราคาหุ้นลดลง 285 พันล้านดอลลาร์ในวันเดียว)

AI ปรับโฉมแผนที่ซอฟต์แวร์ขององค์กร อุตสาหกรรมความปลอดภัยไซเบอร์เข้าสู่ช่วงเปลี่ยนผ่านสำคัญ

เหตุการณ์นี้แสดงให้เห็นว่า Generative AI กำลังพัฒนาไปจากฟังก์ชันเสริมกลายเป็นแกนหลักของซอฟต์แวร์องค์กร ด้วยโมเดล AI ที่มีความเป็นอิสระและความสามารถในการเป็นตัวแทนมากขึ้น บทบาทของ AI ไม่ใช่แค่ให้คำแนะนำ แต่สามารถวิเคราะห์และเสนอแนวทางแก้ไขได้โดยอัตโนมัติ สำหรับอุตสาหกรรมความปลอดภัยไซเบอร์ นี่เป็นทั้งโอกาสจากความก้าวหน้าทางเทคโนโลยี และอาจเป็นจุดเริ่มต้นของการเปลี่ยนแปลงโครงสร้างการแข่งขันใหม่

บทความนี้เกี่ยวกับการเปิดตัวเครื่องมือด้านความปลอดภัย AI ชื่อ Claude Code Security ของ Anthropic และผลกระทบต่อหุ้นกลุ่มความปลอดภัยไซเบอร์หลายแห่ง ซึ่งปรากฏครั้งแรกในเว็บไซต์ ABMedia.

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น