- مکمل تحفظ ممکن نہیں؛ ایتھریم خطرات کو کم کرنے اور اقدامات کو صارف کے ارادے کے مطابق رکھنے پر توجہ دیتا ہے۔
- متعدد تحفظات جیسے ملتی سگ، محاکمہ اور AI یہ یقینی بناتے ہیں کہ لین دین صارفین کی حقیقی خواہشات کے مطابق ہوں۔
- سیکورٹی صارفین کو تاخیر نہیں کرنی چاہیے—کم خطرہ والے اقدامات آسان رہتے ہیں، جبکہ زیادہ خطرہ والے اقدامات کے لیے اضافی перевیکھ کی ضرورت ہوتی ہے۔
ایتھریم کے ماندہ نامزد ویتالیک بیوٹیرن نے ایک نئی حفاظتی نقطہ نظر پیش کیا ہے جس میں صارف کا تجربہ اور خطرہ کا انتظام شامل ہے۔ حالیہ X پر ایک پوسٹ میں، انہوں نے زور دیا کہ “حفاظت” کا مطلب صارف کے ارادے اور سسٹم کے حقیقی رویے کے درمیان فرق کو کم سے کم کرنا ہے۔
اس نے وضاحت کی کہ "بے شرط حفاظت" حاصل نہیں کی جا سکتی، نہ کہ اس لیے کہ نظام ناقص ہیں بلکہ اس لیے کہ "انسانی نیت ضروری طور پر پیچیدہ ہوتی ہے۔" یہ مشاہدہ روایتی حکمت کو چیلنج کرتا ہے اور ethereum والٹس، اسمارٹ کنٹریکٹس اور عام طور پر سافٹ ویئر حفاظت کے لیے رہنمائی فراہم کرتا ہے۔
بٹیرین نے واقعی دنیا کی پیچیدگیوں پر زور دیا: "1 ETH باب کو بھیجنا" جیسی ایک سادہ لین دین بھی ابہام کا شکار ہو سکتی ہے۔ باب کو ایک عوامی کلید سے ظاہر کیا جا سکتا ہے، لیکن وہ کلید حقیقی وصول کنندہ کو ظاہر نہیں کر سکتی۔ علاوہ ازیں، جدلی حکومتی فورک اس سوال کو ذاتی بناسکتے ہیں کہ کون سی چین ETH کی نمائندگی کرتی ہے۔ "صارف کا مقصد" عام منطق کے ذریعے فلٹر ہوتا ہے، جو آسانی سے پروگرام نہیں کیا جا سکتا۔ اس لیے، حفاظتی حل مجازات اور اوور لیپنگ اسپیسیفکیشنز کو اپنانا ضروری ہوتا ہے تاکہ خطرہ کم ہو سکے۔
اضافی مکینزمز اور متعدد زاویوں کی سیکورٹی
بوٹیرن کے مطابق، کامیاب سیکورٹی میکنزمز کے لیے صارفین کے ارادے کو ظاہر کرنے کے متعدد طریقے درکار ہوتے ہیں۔ مثالوں میں پروگرامنگ میں ٹائپ سسٹم، معاہدوں کا فارمل ویریفیکیشن، اور ٹرانزیکشن سیمولیشنز شامل ہیں۔ ٹائپ سسٹم میں، پروگرام کے افعال اور ڈیٹا ڈھانچے دونوں متعین کیے جاتے ہیں، اگر وہ مطابقت نہ رکھتے ہوئے کمپائلیشن ناکام ہو جائے۔
اسی طرح، ٹرانزیکشن کی محاکہ کرنے سے صارفین تصدیق سے پہلے آن-چین نتائج کا جائزہ لے سکتے ہیں۔ متھریگ والٹس، خرچ کی حدود، اور پوسٹ-اسرشنز مزید محفوظی کے لیے دیگر درجات کا کام کرتے ہیں۔ اس لیے، محفوظی خطرات کو کم کرنے کا ایک عمل بن جاتی ہے، مطلق حفاظت نہیں۔
اس کے علاوہ، بیٹرین نے اشارہ کیا کہ LLM جیسی AI ٹیکنالوجیز کو انسانی نیت کے “سایے” کے طور پر دیکھا جا سکتا ہے۔ ایک عام LLM عام منطق کو ماڈل کرتا ہے، جبکہ صارف کے ذریعہ فائن ٹیونڈ ماڈل انفرادی نیت کو ظاہر کرتا ہے۔
تاہم، اس نے زور دیا کہ LLMs کو ارادہ طے کرنے کا صرف ایک بنیادی ذریعہ کبھی نہیں ہونا چاہیے۔ بلکہ، وہ صارف کے ارادے سے زیادہ سے زیادہ تکرار اور کم سے کم انحراف حاصل کرتے ہوئے روایتی طریقوں کو ایک نئی نظریہ فراہم کرتے ہیں۔
بٹیرین نے زور دیا کہ سیکیورٹی کا مطلب کبھی بھی بہت زیادہ کلکس یا بہت زیادہ رکاوٹ نہیں ہونا چاہیے۔ محفوظ ایکشنز آسان رہنے چاہئیں، جبکہ خطرناک آپریشنز کو دقت سے تصدیق کیا جانا چاہیے۔ اس طرح، صارفین سیکیورٹی کو متاثر نہ کرتے ہوئے آسانی سے سسٹم کے ساتھ تعامل کر سکتے ہیں۔ علاوہ ازیں، یہ حکمت عملی ایتھریم کے مجموعی خواب کے مطابق ہے جو ایک محفوظ اور دوستانہ پلیٹ فارم ہونا چاہتا ہے۔

