Categories: أخبار مصر

تحركات الذهب.. توقعات أسعار المعدن الأصفر في مصر خلال تعاملات الأربعاء_ # define the linear model with initial values for intercept and coefficient self.model = LinearModel(m=0.0, b=0.0) def forward(self, input): return self.model(input) def loss(self, labels, predictions): return torch.mean((labels – predictions)**2) def train(self, inputs, labels, epochs=100, learning_rate=0.001): for epoch in range(epochs): predictions = self.forward(inputs) loss_val = self.loss(labels, predictions) # Zero existing gradients self.model.parameters.m.grad = 0.0 self.model.parameters.b.grad = 0.0 # Compute gradients loss_val.backward() # Optimization step (simulated) self.model.parameters.m.value -= learning_rate * self.model.parameters.m.grad self.model.parameters.b.value -= learning_rate * self.model.parameters.b.grad if epoch % 10 == 0: print(f"Epoch {epoch}, Loss: {loss_val.item()}") Initialize model and train linear_regressor = LinearRegressor() linear_regressor.train(inputs, labels) print(f”Trained weight: {linear_regressor.model.parameters.m.value}”) print(f”Trained bias: {linear_regressor.model.parameters.b.value}”) Challenges and Future Considerations: Computation Graph Optimization: In industrial-scale frameworks like PyTorch or TensorFlow, computation graphs are often more complex. They use Tape-based or Static Graph approaches for better efficiency. Control Flows (If, For, While): Handling dynamic control flows during the forward pass requires advanced graph recording mechanisms. Complex Data Types: Supporting tensors of various dimensions and multi-input/multi-output functions. Higher-Order Derivatives: Calculating the derivative of a derivative. Conclusion: Understanding the core of a deep learning framework is about understanding Autograd. It shows that even a complex-looking process like backpropagation is just a series of chain-rule operations applied systematically. You could extend this mini-framework to handle multi-dimensional tensors, a library of more complex functions (like torch.exp or torch.sin), and more sophisticated optimization algorithms. ### Building a Custom Autograd System (Mini-PyTorch) Creating an automatic differentiation system from scratch is an excellent way to grasp how deep learning frameworks compute gradients. In this guide, we’ll build a simple scalar-based autograd engine similar to micrograd (by Andrej Karpathy), which focuses on the core mechanics without the complexity of multi-dimensional tensors. Core Concept: The Computational Graph Autograd works by building a Directed Acyclic Graph (DAG) during the “forward pass.” Nodes: Represent operands (values/scalars). Edges: Represent the operations that connect them. Backpropagation: We traverse this graph in reverse to apply the Chain Rule. Step 1: The Value Class This class will store a scalar value, its gradient, and a reference to the operations that created it. python import math class Value: def init(self, data, _children=(), _op=”): self.data = data self.grad = 0.0 # Hidden state: d(Result)/d(self) self._prev = set(_children) # Previous nodes in the graph self._op = _op # The operation that produced this node self._backward = lambda: None # Function to compute local gradient def __repr__(self): return f"Value(data={self.data}, grad={self.grad})" # Addition: c = a + b def __add__(self, other): other = other if isinstance(other, Value) else Value(other) out = Value(self.data + other.data, (self, other), '+') def _backward(): # Chain rule: dL/da = dL/dc * dc/da. For addition, dc/da = 1. self.grad += 1.0 * out.grad other.grad += 1.0 * out.grad out._backward = _backward return out # Multiplication: c = a * b def __mul__(self, other): other = other if isinstance(other, Value) else Value(other) out = Value(self.data * other.data, (self, other), '*') def _backward(): # Chain rule: dL/da = dL/dc * dc/da. For multiplication, dc/da = b. self.grad += other.data * out.grad other.grad += self.data * out.grad out._backward = _backward return out # Power: c = a^n def __pow__(self, other): assert isinstance(other, (int, float)), "Supporting only int/float powers" out = Value(self.data**other, (self,), f'^{other}') def _backward(): # Power rule: d(x^n)/dx = n * x^(n-1) self.grad += (other * (self.data**(other-1))) * out.grad out._backward = _backward return out def relu(self): out = Value(0 if self.data < 0 else self.data, (self,), 'ReLU') def _backward(): self.grad += (1.0 if out.data > 0 else 0) * out.grad out._backward = _backward return out def backward(self): """Topological sort to ensure we compute gradients in the right order.""" topo = [] visited = set() def build_topo(v): if v not in visited: visited.add(v) for child in v._prev: build_topo(child) topo.append(v) build_topo(self) # Initial gradient is 1 (dOut/dOut) self.grad = 1.0 for node in reversed(topo): node._backward() # Boilerplate for operator overloading def __neg__(self): return self * -1 def __sub__(self, other): return self + (-other) def __rmul__(self, other): return self * other def __truediv__(self, other): return self * (other**-1) Step 2: Testing the Engine Let’s see if we can calculate the gradient of a simple function: $f(x, y) = (x \cdot y) + y^2$. python x = Value(2.0) y = Value(3.0) f = (x * y) + y^2 f = (2 * 3) + 3^2 = 6 + 9 = 15 f = (x * y) + (y ** 2) f.backward() print(f”Result: {f.data}”) # Should be 15.0 print(f”df/dx: {x.grad}”) # df/dx = y = 3.0 print(f”df/dy: {y.grad}”) # df/dy = x + 2y = 2 + 6 = 8.0 Step 3: Minimal Neural Network Logic Now that we have the autograd engine, we can build a Neuron and Layer. python import random class Neuron: def init(self, nin): self.w = [Value(random.uniform(-1, 1)) for _ in range(nin)] self.b = Value(random.uniform(-1, 1)) def __call__(self, x): # w * x + b act = sum((wi*xi for wi, xi in zip(self.w, x)), self.b) return act.relu() def parameters(self): return self.w + [self.b] Example Usage n = Neuron(2) x = [Value(1.0), Value(-2.0)] y = n(x) y.backward() print(f”Neuron Output: {y.data}”) print(f”Gradient of first weight: {n.w[0].grad}”) Key Takeaways for Your Implementation Gradient Accumulation (+=): We use += for self.grad because if a variable is used multiple times in a graph, its gradients must be summed (the Multivariate Chain Rule). Topological Sort: In the backward() method, you cannot calculate a node’s gradient until you have processed all nodes that depend on it. A topological sort ensures we move from the output back to the inputs correctly. Operator Overloading: Overloading __add__ and __mul__ allows you to write natural Python math code (a + b) while the Value class secretly builds the graph in the background. Zero Grad: In a real training loop, you must call grad = 0 between iterations, otherwise gradients from the previous step will keep adding to the new ones. This architecture is the fundamental “DNA” of PyTorch’s Variable and Function classes, scaled up to handle N-dimensional tensors and GPU acceleration.

يترقب الملايين من المهتمين بأسواق الصاغة في مصر ما ستسفر عنه تداولات اليوم الأربعاء 25 فبراير 2026، خاصة مع حالة الترقب الشديدة التي سيطرت على الأسواق العالمية والمحلية في الساعات الأخيرة. الذهب حالياً يقف عند محطة فارقة، حيث تلعب الأونصة العالمية دور المحرك الأساسي للأسعار، بينما يراقب التجار والمستهلكون في القاهرة وباقي المحافظات شاشات العرض بحذر شديد، وسط توقعات بأن يشهد اليوم تحركات قد تغير بوصلة الشراء والبيع.

أسعار الذهب في السوق المحلي المصري اليوم

استهلت محلات الصاغة تعاملاتها الصباحية باستقرار ملحوظ في الأسعار، حيث سجل عيار 21، وهو العيار الأكثر طلباً وانتشاراً بين المصريين، نحو 6950 جنيهاً للجرام الواحد بدون المصنعية. هذا الاستقرار جاء مدفوعاً بثبات الأسعار العالمية في بداية الجلسة، مما أعطى نفساً للسوق المحلي لالتقاط الأنفاس بعد تقلبات الأسابيع الماضية.

بالنسبة للأعيرة الأخرى، وصل سعر جرام الذهب عيار 18 إلى 5957 جنيهاً، وهو العيار الذي يشهد إقبالاً كبيراً في المشغولات الذهبية الحديثة. أما الجنيه الذهب، الذي يعد الملاذ المفضل لصغار المستثمرين والراغبين في حفظ قيمة مدخراتهم، فقد سجل في مستهل تعاملات اليوم 55600 جنيهاً، مع ملاحظة أن هذه الأسعار قد تختلف قليلاً من تاجر لآخر بناءً على قيمة المصنعية والدمغة وحجم الطلب في كل منطقة.

تحركات الأونصة العالمية وتأثيرها على الصاغة

السبب الرئيسي وراء هذه الحالة من الترقب يعود إلى سلوك الأونصة في البورصات العالمية، حيث تتداول حالياً فوق مستوى 5100 دولار. المحللون في سوق المال ينظرون إلى هذا الرقم باعتباره نقطة ارتكاز جوهرية؛ فالبقاء فوق هذا المستوى يعني أن الذهب لا يزال يحتفظ بقوته وبالاتجاه الصاعد، وهو ما قد يدفع الأسعار المحلية في مصر للزيادة خلال الساعات القادمة إذا استمر هذا الزخم.

هذا المستوى الفني ليس مجرد رقم، بل هو حاجز نفسي للمستثمرين حول العالم. طالما ظلت الأونصة متمسكة بمكانتها فوق 5100 دولار، فإن الذهب يبعث برسائل طمأنينة للمشترين بأن موجة الهبوط ليست قريبة. وفي المقابل، يراقب الخبراء أي تراجع تحت هذا المستوى، لأن ذلك قد يعني بداية رحلة تصحيح سعري قد يستغلها البعض لزيادة مشترياتهم بأسعار أقل.

نصائح وتوقعات للمتعاملين في سوق الذهب

الوضع الحالي في السوق المصري يعتمد بشكل كلي على التوازن بين العرض والطلب المحلي وبين حركة الشاشة العالمية. ويرى خبراء السوق أن أي تحرك مفاجئ في سعر صرف العملة أو قفزة في السعر العالمي ستنعكس فوراً على تسعير الأعيرة المختلفة في مصر. لذلك، ينصح المتابعون دائماً بمراقبة حركة السعر على مدار اليوم قبل اتخاذ قرار البيع أو الشراء.

التوقعات تشير إلى أن الذهب سيحاول استهداف مستويات أعلى خلال تعاملات اليوم الأربعاء، خاصة مع استمرار حالة التوتر الاقتصادي العالمي التي تجعل المعدن الأصفر دائماً هو الخيار الأول للتحوط. وبالرغم من أن الأسعار الحالية تبدو مرتفعة تاريخياً، إلا أن استقرارها فوق مستويات الدعم الحالية يعزز من فرص استمرار الصعود على المدى القصير، ما لم تظهر بيانات اقتصادية عالمية تغير من مجرى الأمور وتدفع الذهب لكسر حاجز الـ 5100 دولار هبوطاً.

أدهم سليمان

محرر أخبار بشغف كبير لتغطية الأحداث السياسية والاقتصادية بشكل واضح ودقيق، هدفي دايمًا أقدم لك تقارير وتحليلات موثوقة تساعدك تفهم الأخبار بعمق وبأسلوب بسيط وموضوعي.

Published by
أدهم سليمان

Recent Posts

جوائز وهدايا بانتظارك.. شارك الآن في تحدي الاختيار لبطولة PNC 2025 للاعبين المحترفين

عشاق الإثارة والمهارات القتالية في لعبة ببجي على موعد مع حدث هو الأبرز هذا العام،…

فبراير 25, 2026

موعد عرض وإعادة مسلسل «رأس الأفعى» والقنوات الناقلة لمواجهات الأجهزة الأمنية ضد تجار السموم في رمضان

ينتظر عشاق الدراما الوطنية والبوليسية بشغف كبير موعد عرض الحلقة الجديدة من مسلسل رأس الأفعى،…

فبراير 25, 2026

تعاون تعليمي رياضي.. تفاصيل اجتماع أشرف صبحي مع مسؤولي التعليم العالي والتربية والتعليم

تحركت وزارة الشباب والرياضة بخطوات متسارعة نحو صياغة مستقبل جديد للنشاط الرياضي داخل جدران المدارس…

فبراير 25, 2026

رحيل أحد رموز الدراويش.. النادي الإسماعيلي ينعي اللواء إبراهيم إمام مدير النادي السابق

خيم الحزن على أرجاء مدينة الإسماعيلية بعد الإعلان عن رحيل اللواء إبراهيم إمام، المدير السابق…

فبراير 25, 2026

تجربة فريدة وبالفعل حاجة تانية.. سفير اليابان يوجه رسالة خاصة للمصريين حول أجواء شهر رمضان في مصر

لم يكن غريباً أن يقع سفير اليابان في القاهرة، فوميو إيواي، في سحر الأجواء الرمضانية…

فبراير 25, 2026

رسميًا.. وزيرة الإسكان تضع اللمسات النهائية لتشغيل حديقة تلال الفسطاط أضخم مشروع ترفيهي في القاهرة

تتحرك الدولة المصرية بخطوات متسارعة لحسم ملف التطوير العمراني، وهو ما ظهر بوضوح في الاجتماع…

فبراير 25, 2026