في خضم السباق العالمي المحموم لتطوير نماذج الذكاء الاصطناعي، تتزايد الأسئلة حول من يملك هذه التكنولوجيا؟، ولصالح من تعمل؟، وما الثمن الذي يدفعه المستخدم مقابل “الذكاء” والسرعة؟
ضمن هذا السياق، ظهرت منصة “ثورة” (Thaura)، كمحاولة لتقديم نموذج بديل، يضع الأخلاق وخصوصية المستخدم في صلب التصميم، لا على هامشه.
اقرأ أيضا
list of 2 items
* list 1 of 2 “ذكي بشكل مخيف”.. وصفة مو جودت لأنسنة الذكاء الاصطناعي
* list 2 of 2 الصحافة ستكون ملاذ الهاربين من ضجيج خوارزميات وسائل التواصل end of list
أسس المنصة شقيقان من أصول سورية، هما هاني وسعيد، وقد عملا سابقا في قطاع التكنولوجيا بأوروبا، ويقدّمان “ثورة” بوصفها منصة ذكاء اصطناعي “للناس، لا للشركات ولا للحكومات”، في موقف صريح ينتقد سياسات شركات التكنولوجيا الكبرى، لا من زاوية تقنية فقط، بل من منظور أخلاقي وسياسي أوسع.
في هذه المقابلة، يتحدث مؤسسا “ثورة” إلى الجزيرة نت عن خلفياتهما، ودوافع إطلاق المنصة، وحدود “الذكاء” حين يصطدم بالخصوصية، وموقفهما من التمويل والسلطة، ودور الذكاء الاصطناعي في تشكيل مستقبل الإنسان.

مصدر الصورة
*
قبل “ثورة”، ما مساركُما المهني؟ وكيف شكّل ذلك نظرتكما للتكنولوجيا؟
قبل تأسيس “ثورة”، عملنا في شركة تقنية ألمانية تتعامل مع شركات دوائية كبرى، وهو ما أتاح لنا العمل على قواعد بيانات صحية ضخمة وحساسة. هناك أدركنا أن التكنولوجيا ليست مجرد شيفرات، بل ترتبط مباشرة بحياة الناس وثقتهم.
تجربتنا هذه جعلتنا نرى أن خصوصية البيانات والموثوقية ليستا خيارات إضافية، بل شرطان أساسيان لا يمكن التنازل عنهما.
*
لم تتبعا المسار الأكاديمي التقليدي في علوم الحاسوب. هل أثّر ذلك في بناء المنصة؟
هاني: بصراحة، لا أعتقد أن خلفيتنا غير التقليدية أثّرت في “ثورة” سواء إيجابيا أم سلبيا. في عملنا السابق، قدنا نحو 7 مشاريع، وكان يعمل تحت إدارتنا عدد كبير من الأشخاص، ومن خلال تجربتي الشخصية أستطيع القول، إن كوننا مطورين عصاميين لم يكن يوما عائقا.
كنت دائما شغوفا بالبرمجة، وأحب التعلم المستمر وتطوير مهاراتي، لأنني كنت أدرك أن العالم يتجه نحو ثورة تكنولوجية. لذلك، لم أشعر يوما بأنني أفتقر لشيء فقط لأنني لم أتلقَّ تعليما أكاديميا تقليديا في علوم الحاسوب.
الحقيقة أن معظم العاملين في هذا المجال يعتمدون على التعلّم الذاتي في غالبية ما يعرفونه، ربما 90% مما نفعله هو تعلّم ذاتي. الشيء الوحيد الذي قد نكون افتقدناه في البداية هو الأساسيات النظرية الرسمية، لكن بمجرد تعلم هذه الأساسيات، تجد نفسك على المسار نفسه مع الجميع.
سعيد: الأهم من ذلك أننا، من خلال تعليم أنفسنا البرمجة، اكتسبنا مهارة عامة هي تعلّم أشياء جديدة باستمرار. عندما قسّمنا الأدوار في “ثورة”، توليت أنا الجانب التقني، بينما تولى هاني كل ما يتعلق بالتسويق والإدارة والاتصال. كان عليه أن يتكيّف بسرعة ويتعلم مهارات جديدة، لكن ذلك لم يكن جديدا عليه، لأنه كان قد أتقن أصلا مهارة التعلّم نفسها.
أصبح التعلّم مهارة بحد ذاته، وهذه القدرة على التكيّف المستمر واكتساب المعرفة كانت عنصرا أساسيا في نجاح “ثورة” ومرونتها.
*
كيف أثّرت نشأتكما في سوريا ثم العمل في أوروبا على حساسيتكما لقضايا السلطة والمراقبة؟
هاني: منحتنا خلفيتنا السورية فهما مباشرا لكيفية قمع الأنظمة للناس. كنا دائما على دراية بما يحدث في سوريا، وكيف تشكّل القوى الكبرى الشرق الأوسط والعالم.
عندما جئنا إلى ألمانيا، لم نشعر بالامتنان فقط، بل بالمسؤولية. أُتيحت لنا فرص لبناء مستقبل لم يكن متاحا لأبناء شعبنا في الوطن بسبب عيشهم تحت نظام قمعي. هذا الشعور بالمسؤولية تجاه ردّ الجميل ظل يرافقنا.
ويضيف سعيد مع تعمقنا في مجال التكنولوجيا وفهمنا لبنية البيانات وديناميكيات السلطة في المشهد التقني، ازداد هذا الوعي. أدركنا أن التكنولوجيا اليوم من أقوى أدوات التأثير على البشر في عالم أصبح فيه الجميع متصلين رقميا.
والآن، بما أننا نمتلك منصة يمكننا من خلالها تحديد كيفية استخدام هذه القوة، نحن مصممون على عدم تكرار أخطاء الأنظمة القمعية التي نعرفها. مهمتنا هي تقديم بديل لا يستغل الناس، بل يعمل فعلا لصالحهم.
ما تعلمناه في سوريا عن اختلالات القوة، إلى جانب الفرصة التي منحتنا إياها أوروبا لبناء شيء مختلف، هو ما يحدد كل ما نقوم به في ثورة.

مصدر الصورة
*
تصفان “ثورة” بأنها “بديل أخلاقي”. ما الذي جعلكما تعتقدان أن الأنظمة الحالية تجاوزت خطا أخلاقيا؟
لاحظنا أن شركات التكنولوجيا الكبرى تضع الأرباح باستمرار فوق البشر، ما يؤدي إلى تبني سياسات ضارة.
فعلى سبيل المثال، يعتمد شات جي بي تي على بنية تحتية من شركات مثل إنفيديا ومايكروسوفت، وهي شركات تُعد من الداعمين الكبار لإسرائيل.
كما أن مايكروسوفت، التي تمتلك حصة كبيرة في أوبن إيه آي، توفر البنية الحاسوبية التي تشغّل العمليات العسكرية الإسرائيلية.
وحتى عندما تقدم شركة مثل كلود (Claude) نفسها بديلا “آمنا”، يتضح تورطها من خلال شراكات مع بلانتير (Palantir)، وهي شركة تطور أنظمة قتل تعتمد على الذكاء الاصطناعي وتستخدمها الحكومة الإسرائيلية ضد الفلسطينيين.
هذه ليست مجرد قضايا تقنية، بل تجاوزات أخلاقية ناتجة عن مشاركة مباشرة في الإبادة والقمع.
الذكاء الاصطناعي يعتمد اعتمادا هائلا على البيانات، ما يعني أن الناس يقدّمون دون علمهم معلومات قيّمة لهذه الجهات. وعندما رأينا أفرادا من عائلتنا يستخدمون شات جي بي تي، دون إدراك الضرر الذي يلحقونه بأنفسهم وبمجتمعهم، أدركنا أنه لا بد من التحرك.
بدأنا بنسخة بسيطة مخصصة للعائلة، ومع طلباتهم -مثل الوضع الصوتي ورفع الصور- تشكلت “ثورة” تدريجيا بالشكل الذي هي عليه اليوم.
*
هل “ثورة” رد على ضعف تقني أم على خيبة أخلاقية؟
سعيد: هي نابعة أكثر من خيبة أمل أخلاقية تجاه الصناعة ككل. فعندما ظهرت شات جي بي تي وكلود وبيربلكستي، كنا من المستخدمين المكثفين لها. لم تحاول “ثورة” إعادة اختراع العجلة بل نحن نحب فعلا المنتجات التي طورتها هذه الشركات، لكننا نرفض سياساتها ومواقفها الأخلاقية، وحقيقة أنها لا تهتم إلا بالأرباح دون اكتراث حقيقي بالإنسانية.
قدرات هذه الأنظمة التقنية مبهرة، لكن الأساس الأخلاقي الذي بُنيت عليه معطوب من جذوره. لقد أنشأت هذه الشركات أدوات قوية كان يمكن أن تساعد البشر فعلا، لكنها اختارت إعطاء الأولوية لقيمة المساهمين على حساب رفاه الإنسان، وهذا الفشل الأخلاقي هو ما دفعنا لبناء “ثورة”.
فهي خيبة أخلاقية بالدرجة الأولى. نحن نقر بأن هذه الأنظمة متقدمة تقنيا، وكنا من مستخدميها، لكن المشكلة ليست في القدرات، بل في الأساس الذي تُبنى عليه، وحين تصبح قيمة المساهمين أهم من رفاه الإنسان، فإن الخلل يكون بنيويا ولا يمكن إصلاحه بميزات إضافية.

مصدر الصورة
*
ما القرارات الأخلاقية التي كلّفتكم نموا أو تمويلا؟
هاني: بصراحة، تسير ثورة في مسار ممتاز، لكن القرار الأخلاقي الأبرز الذي كلّفنا نموا هو رفض التمويل، فقد تلقينا عدة عروض استثمارية، لكننا رفضناها جميعا لأننا لا نريد لأي جهة أن تؤثر في طريقة بناء “ثورة”.
ورغم يقيننا بوجود مستثمرين حسني النية، فإن المخاطرة لا تستحق، فثورة صُممت لتكون للناس، وليس من المنطقي إدخال مستثمرين أو شركات رأس مال مغامر قد يركزون في النهاية على الأرباح بدلًا من رسالتنا.
عدا ذلك، تسير “ثورة” بشكل ممتاز، ولدينا مجتمع رائع ينمو يوما بعد يوم، ونحن واثقون تماما من قدرتها على التوسع بلا حدود ومنافسة اللاعبين الكبار دون التفريط بأساسها الأخلاقي.
*
انتقدتما شركات التكنولوجيا الكبرى علنا. هل المشكلة الأساسية هي الانحياز السياسي، أم احتكار البيانات، أم تركّز السلطة بحد ذاته؟
سعيد: المشكلة في كل ما سبق، لأنها جميعا أعراض للمشكلة الجوهرية نفسها: شركات التكنولوجيا الكبرى لا تهتم بالإنسانية، وهذا الغياب للاهتمام يؤدي إلى الانحياز السياسي، واحتكار البيانات، وتركيز السلطة.
تمتلك هذه الشركات موقعا فريدا وفرصة هائلة لإحداث فرق إيجابي للبشرية، لكنها لا تستغلها. كل ما يهمها هو النمو والأرباح وأجنداتها السياسية الخاصة. وهذه ليست مشكلات منفصلة، بل جوانب مختلفة لمنظومة تعطي الأولوية للمصالح المؤسسية على حساب رفاه الإنسان.
*
من يحدد “الأخلاقي” داخل “ثورة”؟
هاني: ثورة صُممت لتضع الإنسان فوق الربح، وأن تبني شيئا للصالح العام لا للعالم المؤسسي. لقد طوّرنا إطارنا الأخلاقي من خلال ممارساتنا وتعاليم الإسلام، التي تدعونا إلى البناء على الرحمة والعدل واحترام جميع البشر، بغض النظر عن خلفياتهم أو ظروفهم.
هذه المبادئ توجه مقاربتنا للتكنولوجيا والأعمال، وتضمن أن يكون كل قرار نتخذه إضافة إيجابية للمجتمع، لا مجرد استخراج للقيمة منه.

مصدر الصورة
*
من يراجع هذه التعريفات الأخلاقية أو يدقق فيها؟ وكيف تمنعون تحوّلها إلى أخلاق شخصية للمؤسسين مشفّرة داخل البرمجيات؟
سعيد: مجتمعنا هو الجهة التي تتولى بالكامل مراجعة وتحدي إطارنا الأخلاقي، نشجع الجميع على المساهمة في تطويره وتحسينه.
نحن لا نعتبر أنفسنا علماء أو مرجعيات نهائية، بل حدّدنا ببساطة مشكلات لا تتعامل معها شركات التكنولوجيا الكبرى بشكل مناسب، ونريد تغيير ذلك.
*
ما نوع البيانات التي ترفضون جمعها مهما كانت الفائدة التقنية؟
هاني: نؤمن بمبدأ أن بيانات المستخدم ملك له. نحن لا نستخدم هذه البيانات ولا نحللها لأغراض التدريب أو التحسين أو تحقيق الربح، في حين تجمع شركات أخرى كميات هائلة من البيانات لجعل نماذجها “أذكى”، نحن نرفض هذا النهج تماما لأنه ينتهك ثقة المستخدم واستقلاليته.
وفي هذا الإطار من المهم التمييز بين “الجمع” و”التخزين” فنحن لا نجمع أي بيانات مستخدم، أي شيء يُمرر إلى “ثورة” لا يصبح ملكًا لنا. نحن نخزّن البيانات لصالح المستخدم، لا لصالحنا.
الأشياء الوحيدة التي تخزّنها ثورة هي الضروريات الأساسية مثل المحادثات وأسماء المستخدمين والبريد الإلكتروني، وهي أمور يتوقعها المستخدم ويرغب في الاحتفاظ بها، مثل سجل المحادثات وميزات الذاكرة.
نحسّن النموذج من خلال مدخلات المجتمع، حيث نحصل باستمرار على تغذية راجعة مباشرة من المستخدمين. هذا النهج يحترم الخصوصية، وفي الوقت نفسه يسمح لنا بالتطور بناء على ما يريده الناس فعلا.
* إذا كان جمع مزيد من البيانات سيجعل “ثورة” أذكى بوضوح، فهل يمكن للذكاء أن يبرر المراقبة؟
سعيد: إطلاقا، قد يكون من المغري أن يصبح النموذج أذكى، لكن بأي ثمن؟ لا يملك أي إنسان الحق في تجاوز قرارات شخص آخر متعلقة بخصوصيته، فإذا قال المستخدم إنه لا يريد استخدام بياناته لأغراض معينة أو يرغب في الخصوصية، فلا يجوز لأحد أن يتجاهل ذلك بحجة “نحن نريد تغيير العالم”.
الخصوصية غير قابلة للتفاوض. إن التزام “ثورة” باستقلالية المستخدم يعني أننا لن نضحّي بالخصوصية مقابل الأداء، مهما كانت الإغراءات التقنية.

مصدر الصورة
*
إذا اقتربت منكم حكومة بشروط صارمة وضمانات للاستخدام الأخلاقي، ما الذي سيجعلكم ترفضون فورا؟
هاني: “ثورة” للناس، ولا ينبغي لأي حكومة أن يكون لها نفوذ عليها. هدفنا أن تكون “ثورة” غير مركزية، ولا محلية، وأن تكون مفتوحة المصدر، ومتاحة للجميع، لا خاضعة لأي جهة.
رؤيتنا النهائية هي أن لا يضطر الناس حتى إلى الثقة بثورة نفسها، بل أن يمتلكوا أنظمة محلية أو غير مركزية، مستقلة عن أي تحكم مركزي. ولو تقدمت حكومة بعرض شراكة، فسنجيبها بالإجابة نفسها التي نوجهها للمستثمرين: لا نريد لأي جهة أن تؤثر في رسالة “ثورة”.
سنرفض أي شراكة تمس استقلاليتنا أو التزامنا بوضع الإنسان أولا.
*
في ظل نشأتكما في سوريا وبناء نظام ذكاء اصطناعي في واقع جيوسياسي معقد، هل ترون ثورة منتجا أم موقفا؟
سعيد: بنينا منصة “ثورة” بعقلية ثورية. شعارنا جمل يقوده مبرمج يقلب الصور النمطية التي تختزل العرب في الصحراء والجمال بدلا من واجهات البرمجة والخوارزميات. اخترنا هذا الرمز كراية تعكس قيمنا وتعلن بوضوح من نحن.
لكن ثورة هي أيضا منتج، لأن إحداث تأثير حقيقي يتطلب أكثر من مجرد موقف. هناك بدائل كثيرة جيدة، لكنها غالبا ليست سهلة الاستخدام بما يكفي للوصول إلى الجمهور العام. لذلك ركزنا كثيرا على تجربة المستخدم، لأننا نريد أن يحدث الانتقال من التكنولوجيا الكبرى إلى التكنولوجيا الأخلاقية على أرض الواقع.
فثورة هي الاثنان معا: بيان مبادئ ثوري، وحل عملي يعمل فعلا لصالح الناس.
*
إذا فشلت ثورة تجاريا ونجحت في تغيير طريقة تفكير الناس في أخلاقيات الذكاء الاصطناعي، هل يظل ذلك مهما بالنسبة لكم؟
هاني: لا نهتم لثورة كمنتج بقدر ما قد يظنه بعضهم. بدأنا العمل عليها لأن هناك حاجة فعلية لبديل مختلف. هدفنا الأساسي كان بناء مجتمع، ونشر الوعي، وتحفيز الناس على استخدام وبناء تكنولوجيا أخلاقية.
ما يهم حقا هو الجانب المجتمعي. نريد لأصحاب التفكير الأخلاقي أن يتواصلوا، وأن يبنوا عالما أفضل ومستقبلا أفضل لنا ولأطفالنا.
إذا فشلت “ثورة” تجاريا ونجحت في تغيير وعي الناس وبناء هذا المجتمع، فسيكون ذلك نجاحا كبيرا. الجانب التجاري ثانوي مقارنة بالمهمة الحقيقية وهي تمكين الناس من بناء تكنولوجيا تخدم الإنسانية بدلا من استغلالها.
الذكاء الاصطناعي بين السوق والضمير
تقدّم “ثورة” نفسها ليس فقط كمنصة تقنية، بل كموقف فكري وأخلاقي في مواجهة نموذج سائد يرى في البيانات سلعة، وفي المستخدم موردا.
سواء نجحت “ثورة” تجاريا أم لا، فإن طرح هذه الأسئلة عن الخصوصية، والسلطة، وحدود الذكاء يعكس تحوّلا أوسع في النقاش العالمي حول مستقبل التكنولوجيا. وفي زمن تتسارع فيه الخوارزميات، يتحول التساؤل عن قدرة البشر على تطويع الذكاء الاصطناعي إلى تساؤل لصالح من يفعل ذلك؟ وبأي ثمن؟.
