เมื่อ 4 มิ.ย. Jonathan Stray (@jonathanstray) นักข่าว/นักคอมพิวเตอร์ ทวีตตอบ @CNN ว่า การคาดการณ์ว่าใครเป็นกลุ่มก่อการร้ายอย่างที่หน่วยข่าวกรองใช้คอมพิวเตอร์คำนวณความเป็นไปได้ ตามข่าวที่ CNN เสนอเกี่ยวกับการระเบิดที่บอสตันนั้น มันไม่เวิร์กหรอก จนกว่าความเป็นไปได้มันจะสูงกว่าจำนวน "false positives" (หรือการที่คอมพิวเตอร์ทายว่า "เป็น" แต่จริงๆ มันไม่ได้เป็น)
ปัญหาที่ Stray เจาะจงในที่นี้คือปัญหา "base rate fallacy" ซึ่งเกิดจากการที่เราคำนวณความน่าจะเป็นของ X หากเกิด Y โดยลืมไปว่า Y มันก็ไม่ได้เกิดตลอดเวลา ลืมคิดไปว่าต้องคำนวนความน่าจะเป็นของการเกิด Y อีกทีด้วย ซึ่งพอเป็นแบบนี้ ก็ทำให้เราเข้าใจผิดเกี่ยวกับความแม่นยำของโมเดล คิดไปเองว่ามันแม่นยำระดับนึง ทั้งที่จริงมันแม่นยำน้อยกว่านั้นมาก
เขาโพสต์สไลด์ที่เขาสอนวิชา Computational Journalism (วารสารศาสตร์เชิงคำนวณ) ที่มหาวิทยาลัยฮ่องกง ซึ่งเขาใช้เวลาหนึ่งคาบเต็มๆ เน้นเรื่องนี้กับนักศึกษา
สิ่งที่ Stray เสนอนั้น น่าสนใจมาก เพราะนักข่าวมีแนวโน้มจะนำเสนอข้อมูลตัวเลขมากขึ้นเรื่อยๆ ตั้งแต่สมัยก่อนแล้วที่หลักการพาดหัวข่าวให้ดึงดูดอันนึงคือ ใช้ตัวเลข ใช้จำนวน ต่อมาก็มีการใช้แผนภูมิ ใช้กราฟกันมากขึ้น ดัชนีต่างๆ มาในสมัยนี้ อินโฟกราฟิกก็เป็นที่นิยมแพร่หลาย
ปัญหาก็คือ นักข่าวเข้าใจตัวเลขพวกนี้จริงๆ หรือเปล่า ก่อนจะนำเสนอ
ยิ่งไปกว่านั้น การใช้ตัวเลขต่างๆ เพื่อไปสู่ข้อสรุปอะไรอีกชั้นหนึ่ง นักข่าวมั่นใจแค่ไหน ว่าจะไม่ติดกับดักของตัวเลข โดนตัวเลขหลอกซะเอง
ตัวอย่างในวิกิพีเดียที่ Stray โพสต์ พูดถึงตัวอย่างของ "สัญญาณเตือนผู้ก่อการร้าย" ที่จะดังเมื่อมีผู้ก่อการร้าย และการคำนวณความแม่นยำของสัญญาณดังกล่าว ซึ่งในโมเดลนี้ บางคนจะลืมคิดถึงโอกาสที่ผู้ก่อการร้ายจะมีอยู่ตั้งแต่แรกในหมู่ประชากร แล้วสุดท้ายสมมติฐานที่ผิดพลาดนี้ ทำให้ผลคำนวณความน่าจะเป็นต่างกันถึง 100 เท่า นั่นแปลว่าคนที่ไม่ได้เป็นผู้ก่อการร้าย มีโอกาสที่จะถูก "หน่วยข่าวกรอง" เอาป้ายมาแปะว่าเป็นผู้ก่อการร้ายแบบผิดๆ สูงมาก
ซึ่งถ้านักข่าวยังหลงๆ ลืมๆ เรื่องนี้ซะเอง การจะไปหวังให้ตั้งคำถามถึงความยุติธรรมกับการที่รัฐเอาเครื่องมือแบบนี้มาจับคนเข้าคุก ... ก็ไม่ต้องหวังครับ