Copy Fail

tl;dr – buffer overflow

But it’s a bit special kind of overflow. The copy fail exploits the overflow bug caused by mishandling in-place optimization in the algif_aead kernel module . The POC demonstrates that it can splice to read-only page cache, make it writable (because in-place ops must be read/write) . So, when load a binary (e.g., /usr/bin/su) to the page cache, we can rewrite the binary, and execute modified binary cached in the page cache directly.

Because the kernel module can be triggered by a call from user space, it can be used to LPE.

This bug exist since 2017. So, the exploit works in almost, if not all, distros.

Luckily that the bug is in a kernel module. So, a quick mitigation is not to load the module:

echo "install algif_aead /bin/false" | sudo tee /etc/modprobe.d/manual-disable-algif_aead.conf

If you want to fix, patches already there, though. Just update the kernel, and reboot the system.

วันสงกรานต์ พ.ศ.2569

วันสงกรานต์ปี 2569

เป็นปี จ.ศ. (2569 – 1181) = 1388

วันเถลิงศก ตรงกับ
(1388 * 0.25875)
+ floor(1388 / 100 + 0.38)
– floor(1388 / 4 + 0.5)
– floor(1388 / 400 + 0.595)
– 5.53375
= 359.145 + 14 − 347 − 4 − 5.53375
= 16.61125
= วันที่ 16 เมษายน 2569 เวลา 14:40:12

วันสงกรานต์ ตรงกับ
16.61125 – 2.165 = 14.44625
= วันที่ 14 เมษายน 2569 เวลา 10:42:36

หยี่แปะ

อากง อาม่า ของ อจก. เป็นจีนแต้จิ๋ว อพยพหนีความแร้นแค้นมาจากซัวเถา เมื่อเกือบจะร้อยปีก่อน มีลูก 5 คน พอมาอยู่ไทยเลยใช้นามสกุล แซ่เตีย (张) ตามอากง จนลุงคนรอง (หยี่แปะ) ไปขอจดใช้นามสกุล ธโนปจัย ภายหลังพบว่าไปซ้ำกับนามสกุลที่มีมาก่อนแล้ว เลยเปลี่ยนเป็น “เธียรธโนปจัย”

ลุงน่าจะเป็นคนเดียวในครอบครัวเราที่เคยใช้นามสกุล ธโนปจัย ปรากฏ ชื่อ-สกุล ในวิทยานิพนธ์ ป.โท ของจุฬาฯ ปี 2517 ก่อนจะเปลี่ยนมาใช้ เธียรธโนปจัย ด้วยกันหลังจากนั้น

ลุงทำงานธนาคาร ไปสุดตำแหน่งใหญ่ใน HQ แถวสีลม ไม่มีครอบครัว สันโดษ early มา day trade ดูแลอาม่าช่วงก่อนอาม่าเสีย กับเลี้ยงหมา ๆ ที่บ้าน พอหมา ๆ ตายไปหมด ก็เริ่มมีอาการ Alzheimer หนักขึ้น มาช่วง COVID-19 ก็ติดเชื้อ รักษาหายก็เริ่มติดเตียง ที่บ้านเลยตัดสินใจพาลุงเข้าศูนย์ดูแลผู้สูงอายุฯ รู้ตัวบ้าง ไม่รู้ตัวบ้าง จำได้บ้าง จำไม่ได้บ้าง

อาการ Alzheimer ทำให้ลุงหมดความสามารถในการทำธุรกรรม บ้านเราเคยจะใช้กฎหมายขอเป็นผู้ดูแล ก็ยากยิ่งกว่าจัดการมรดกเสียอีก คุณพ่อ อจก. เลยเป็นคนดูแลออกค่าใช้จ่ายของลุงมาตลอดสิบกว่าปี จนคุณพ่อเสียเมื่อปีที่แล้ว น้องสาว อจก. เลยรับมาดูแลต่อ

หมอพบว่าลุงมีอาการเส้นเลือดอุดตัน conditions รักษายาก เสี่ยงสูง และเตือนว่า ถ้ามีแผลจะติดเชื้อง่าย ที่บ้านไปเยี่ยมลุงวันอาทิตย์ ยังไม่มีอาการอะไร แต่พอมีแผลติดเชื้อ ลุงอาการทรุดไวมาก

ลุงสิ้นลมหายใจตอนเช้ามืดพุธที่ 22 ต.ค. 68

วันสงกรานต์ พ.ศ. 2568

วันสงกรานต์ปี 2568

เป็นปี จ.ศ. (2568 – 1181) = 1387

วันเถลิงศก ตรงกับ
(1387 * 0.25875)
+ floor(1387 / 100 + 0.38)
– floor(1387 / 4 + 0.5)
– floor(1387 / 400 + 0.595)
– 5.53375
= 358.88625 + 14 – 347 – 4 – 5.53375
= 16.3525
= วันที่ 16 เมษายน 2568 เวลา 08:27:36

วันสงกรานต์ ตรงกับ
16.3525 – 2.165 = 14.1875
= วันที่ 14 เมษายน 2568 เวลา 04:30:00

LLM Safety

เรื่องสมมติที่เกิดขึ้นจริง


ในฝั่ง cybersecurity เราเริ่มใช้ AI ในการป้องกันมาพักนึงแล้ว และพบการโจมตีมากขึ้นเรื่อย ๆ รวมถึงเห็นภัยคุกคามใหม่ ๆ ที่เชื่อมโยงกับ AI ด้วยเหมือนกัน
ในทางบวก ฝั่งป้องกัน เราใช้ AI ช่วยในการ summarize logs เชื่อมโยง security events เพื่อ discovery การโจมตี discover สิ่งที่ rule-based ทำไม่ได้ หรือ overload มนุษย์มาก ๆ

ในทางลบ เราเห็น web crawlers / spiders ฝั่ง AI วิ่งเก็บข้อมูลหน้าเว็บหนักกว่าเดิม 5 – 10 เท่าจากปกติ ซึ่งมันกิน resources เด้อจ้า .. ทั้ง CPU, mem, egress ที่ต้องประมวลผลตอบสนอบขึ้นหมดเลย เท่ากับ pay-per-use/on-demand จะมีค่าใข้จ่ายขึ้นโดยไม่ได้ประโยชน์ทางตรงอะไรเลย

ในขณะที่ gen. AI ทุกค่าย พยายามใส่ safety ใน models เพือควบคุม responses ให้อยู่ในกรอบที่ปลอดภัยต่อผู้ใช้ เป็นกลาง มี bias น้อย ลดแรงกระตุ้นเชิงลบ (e.g., violence, extremist, discrimiate, misinform, propaganda,…) .. แต่เราห้ามคนสร้าง models without any safety ไม่ได้หรอกครับ ของพวกจะเอาไปใช้สร้าง response malicious intent ได้ ถ้า gen code ก็จะ gen malicious intent code ได้ obfuscation เก่ง reverse engineer เก่ง ฯลฯ

ในทางกลับกัน ไม่ใช่ว่า การปลด safety มันไม่ดีเสมอไป ในบางสถานการณ์ มันก็มีที่ใช้ มาถึงตรงนี้ คนที่ get ก็จะ get ทันทีว่า model ที่ปลด safety มันคืออาวุธ เป็นศักยภาพการรบและป้องกันประเทศใน 5th domain/cyberwarfare ได้ เป็นของที่จะหวังพึ่งมิตรประเทศอย่างเดียวไม่ได้ และประเทศนั้น ๆ อาจจะต้องสร้างเป็นของตัวเอง

กลับมาอีกฝั่งที่มี safety .. พอมี model safety พวก cybersecurity ก็พยายามทำ offensive bypass model safety ด้วยเหมือนกัน เรียกว่าเป็น LLM jailbreak .. เอาจริง ๆ ก็มีความพยายาม jailbreak กันตั้งแต่กำเนิด ChatGPT โน่นแหละ


ล่าสุด DeepSeek-R1 ก็เพิ่งโดนแหกไปครับ

DeepSeek-R1

ลองเอา deepseek-r1:1.5b ตัวเล็กสุด มารันใน notebook ตัวเอง

มันเก่งจริงอย่างที่หลายคนอวยยศแฮะ response เร็ว กิน resource น้อย (อจก. ตามไปอ่าน architecture ของ deepseek แล้ว ในทางวิศวกรรม #ของแทร่ อยู่เด้อ)

ประเด็นคือออ .. model ขนาด 1-2b parameters หลาย ๆ models นี่ คอมพิวเตอร์ทั่ว ๆ ไป มี memory เหลือสัก 1.5-2 GB ก็รันได้แล้วนะครับ ไม่ต้องมี GPU/NPU ช่วย accelerate ก็รันได้ (เครื่อง อจก. ก็ไม่มี GPU/NPU)

ยิ่งถ้ามี AI-accelerated (e.g., CPU+NPU, Copilot+ PC) ที่กำลังทยอยออกมาวางขายผู้ใช้งานทั่วไป การรัน model เล็ก ๆ แบบนี้จะได้ response เร็วขึ้น ประหยัดพลังงาน และมีรายละเอียดมากขึ้นได้ (i.e., input/output tokens เยอะ ๆ ไม่ต้องกลัวเปลืองตัง)

.. ถ้าห่วงเรื่องข้อมูลส่วนตัว หรือกลัว footprints ปรากฏ online ก็จะมีทางเลือกทำ chat/RAG/agent บน device ของตัวเองเป็น offline ได้เลย