Hvorfor støtte?
Per december 2025 støtter Thaura AI (ثورة)
Gaza og
Palæstina (
se hjemmeside
). Thaura AI er et etisk og grønt alternativ til
ChatGPT,
Google Gemini og andre
AIs under
zionisters indflydelse. Thaura AI blev grundlagt af to
syriske brødre, Hani Chihabi og Said Chihabi, som nu er bosat i
Tyskland.
Baggrund
AI er overalt, takket være især Big Tech. Men da to selvudlærte
syriske brødre forlod deres korporative teknologijobs i
Tyskland, forsøgte de ikke at tilføje endnu en model til bunken. De fokuserede på et mere presserende spørgsmål: Hvorfor findes der stadig ingen etisk alternativ til de
AI-systemer, der dominerer verden?
Deres svar er Thaura AI (ثورة), en privatlivsførst, værdidrevet
AI-platform, der er lanceret, og som positionerer sig ikke som en "bedre
ChatGPT," men som en fundamental anderledes type system bygget omkring etik, digitale rettigheder og
politisk klarhed.
Og den ankommer på et tidspunkt, hvor den globale
AI-industri konfronteres med hidtil uset kritik over overvågning, dataudvinding,
politisk censur og korporativ magt.
En Syrisk Oprindelseshistorie i et Tysk Teknologilandskab
Thaura blev grundlagt af brødrene Hani og Said Chihabi, som flygtede til
Europa fra
Syrien kort før revolutionen. Ingen af dem gik igennem formel datalogiuddannelse. Begge lærte sig selv
programmering gennem
YouTube og
AI-værktøjer.
- "Vi var aldrig rigtig interesserede i teknologi," fortalte Hani til Barakah Insider. "Vi kom ind i det, fordi vi lever i en digital æra, og vi vidste, at vi kunne have en indflydelse med teknologi. Vi skulle bare lære os alt selv."
Men engang inde i det
tyske korporative system indså de, at det arbejde, de udførte - at bygge systemer for farmaceutiske kunder - stred imod deres egne etiske forpligtelser.
- "Det gik ikke hånd i hånd med den grund, hvorfor vi startede med teknologi," sagde Hani. "Især med det, der skete i
Palæstina og
Syrien... vi havde samme kald til at gøre noget."
Det kald førte til Thaura, arabisk for revolution. Ikke en politisk opstand, men en udfordring til teknologisk imperialisme.
Hvorfor Thaura Eksisterer
Grundlæggernes udgangspunkt var simpelt: krypteret
beskedudveksling har Signal;
søgning har DuckDuckGo;
browsere har Brave; men
AI, den mest intime teknologi overhovedet, havde ingen etisk modvægt.
"Der var ikke noget
AI-alternativ," sagde Hani. "Min moster taler mere med
AI end nogen, jeg kender. Og jeg føler, det er forfærdeligt, fordi
ChatGPT ikke har et etisk framework. Og det er skræmmende."
Thauras mission: Byg en
AI, der ikke udnytter brugere, ikke overvåger dem, og ikke desinficerer
politiske realiteter.
I modsætning til korporative
AI-udviklere er Thauras etiske position eksplicit og kulturelt forankret. Dets kerneforpligtelser inkluderer aldrig at træne på brugerdata, undgå al overvågning, adfærds sporring og profilering, nægte militære kontrakter, opretholde en eksplicit holdning af solidaritet med
Palæstina og andre marginaliserede fællesskaber, og opbevare data på deres egen GDPR-compliant backend-servere med AES-256-kryptering og nul brugerdata-bevarelse.
Dette gør Thaura til en af de få
AI-platforme, der åbent afviser både Big Tech-forretningsmodeller og politisk bias.
Teknologien Bag Thaura
Thaura drives af GLM-4.5 Air, en open-source Mixture-of-Experts (MoE) model. Det er en 100B-parameter model, men kun 12B-parametre aktiveres per prompt, hvilket gør den markant mere energieffektiv.
Hani bryder det ned: "I stedet for et enormt hjerne, der affyrer alt hver gang, du spørger om noget, beslutter GLM 4.5 Air intelligent, hvilken del af sin hjerne den skal bruge. Det er sådan, vi tackler bæredygtighed."
Hani hævder, at hans platforms energibesparelser er omkring 93% mere effektive end Big Tech-modeller, et skarpt kontrast til trillion-parameter-kæmper som GPT-5.
Thaura understøtter i øjeblikket
websøgning, vision og billedinput, dokument-upload, stemmetilstand, Claude-style "artifacts" til visualiserede output, drevet af GLM-4.5 Air's selvreflekterende resonningsevner.
Kører den sine modeller gennem en uafhængig inferensudbyder, der driver sin egen infrastruktur i stedet for at stole på store cloud-platforme som
AWS,
Azure eller
Google, og opbevarer ingen brugerdata. For at mindske begrænsningerne ved at bruge en forud-trænet open-source-model implementerer de deres egne "guardrails" gennem manuelt skrevne etiske system-prompter, partnerskaber med pro-
palæstinensiske data-projekter, og reference-datasæt designet til at sikre faktabaserede, udesinficerede svar på politiske og humanitære emner.
Bootstrappet og pro-Palæstina
Finansiel set er Thaura bootstrappet, omhyggeligt undgår egenkapitalfinansiering for at forhindre ekstern indflydelse. Til trods for investorinteresse insisterer Hani: "Vi vil ikke have nogen, der flytter vores vision. Dette mål handler om at levere etisk
AI til alle, ikke om at gavne nogle få."
Vækststrategien afhænger tungt af en etisk-fokuseret fællesskab, udnytter troværdighed fra nichegrupper, der støtter deres værdier, især pro-
palæstinensiske fortalere. "Når vi etablerer os i denne sektor, vil vi udvide til andre fællesskaber, inklusive open source og bæredygtighedsforkæmpere."
Thauras nuværende infrastruktur kan understøtte op til 100.000 aktive brugere, og teamet planlægger at skalere gradvist til det.
"Vi bygger ikke bare en
AI, men en etisk revolution, et værktøj, der respekterer menneskelig værdighed, forstærker dæmpede stemmer og står fast imod udnyttelse," reflekterer Hani.
For brugere, der søger en
AI med en samvittighed, der respekterer privatliv, modstår overvågning og kæmper for marginaliserede fællesskaber, åbner Thaura en ny vej frem inden for etisk
kunstig intelligens.
Why support?
As of December 2025, Thaura AI (ثورة) supports
Gaza and
Palestine (
see website
). Thaura AI is an ethical and green alternative to
ChatGPT,
Google Gemini, and other
AIs under the influence of
zionists. Thaura AI was founded by two
Syrian brothers, Hani Chihabi and Said Chihabi, now based in
Germany.
Background
AI is everywhere, especially thanks to Big Tech. But when two self-taught
Syrian brothers left their corporate tech jobs in
Germany, they did not try to add another model to the pile. They focused on a more pressing question: Why is there still no ethical alternative to the
AI systems dominating the world?
Their answer is Thaura AI (ثورة), a privacy-first, value-driven
AI platform that positions itself not as a "better
ChatGPT," but as a fundamentally different system built around ethics, digital rights, and
political clarity.
It arrives at a time when the global
AI industry faces unprecedented criticism over surveillance, data extraction,
political censorship, and corporate power.
A Syrian Origin Story in a German Tech Landscape
Thaura was founded by brothers Hani and Said Chihabi, who fled to
Europe from
Syria shortly before the revolution. Neither had formal computer science training. Both self-taught
programming through
YouTube and
AI tools.
- "We were never really interested in technology," Hani told Barakah Insider. "We got into it because we live in a digital era, and we knew we could make an impact with technology. We just had to learn everything ourselves."
Once inside the
German corporate system, they realized the work they were doing—building systems for pharmaceutical clients—contradicted their own ethical commitments.
- "It didn’t align with the reason we started with technology," Hani said. "Especially with what was happening in
Palestine and
Syria… we had the same calling to do something."
That calling led to Thaura, Arabic for revolution. Not a political uprising, but a challenge to technological imperialism.
Why Thaura Exists
The founders’ starting point was simple: encrypted
messaging has Signal;
search has DuckDuckGo;
browsers have Brave; but
AI, the most intimate technology of all, had no ethical counterweight.
"There was no
AI alternative," Hani said. "My aunt talks more with
AI than anyone I know. And I feel it’s terrible because
ChatGPT has no ethical framework. And that’s scary."
Thaura’s mission: build an
AI that doesn’t exploit users, doesn’t surveil them, and doesn’t sanitize
political realities.
Unlike corporate
AI developers, Thaura’s ethical stance is explicit and culturally rooted. Core commitments include never training on user data, avoiding all surveillance, behavior tracking, and profiling, refusing military contracts, maintaining explicit solidarity with
Palestine and other marginalized communities, and storing data on their own GDPR-compliant backend servers with AES-256 encryption and zero user data retention.
This makes Thaura one of the few
AI platforms openly rejecting both Big Tech business models and political bias.
The Technology Behind Thaura
Thaura is powered by GLM-4.5 Air, an open-source Mixture-of-Experts (MoE) model. It’s a 100B-parameter model, but only 12B parameters are activated per prompt, making it significantly more energy-efficient.
Hani breaks it down: "Instead of a huge brain firing everything every time you ask something, GLM 4.5 Air intelligently decides which part of its brain to use. That’s how we tackle sustainability."
Hani claims his platform’s energy savings are about 93% more efficient than Big Tech models, a sharp contrast to trillion-parameter giants like GPT-5.
Thaura currently supports
web search, vision and image input, document upload, voice mode, Claude-style artifacts for visualized output, powered by GLM-4.5 Air’s self-reflective reasoning abilities.
It runs its models through an independent inference provider that operates its own infrastructure instead of relying on large cloud platforms like
AWS,
Azure, or
Google, and stores no user data. To overcome limitations of a pre-trained open-source model, they implement their own "guardrails" via manually written ethical system prompts, partnerships with pro-
Palestinian data projects, and reference datasets designed to ensure fact-based, unsanitized responses to political and humanitarian topics.
Bootstrapped and Pro-Palestine
Financially, Thaura is bootstrapped, carefully avoiding equity financing to prevent external influence. Despite investor interest, Hani insists: "We don’t want anyone altering our vision. This goal is about delivering ethical
AI to all, not benefiting a few."
The growth strategy relies heavily on an ethically-focused community, leveraging credibility from niche groups supporting their values, especially pro-
Palestinian advocates. "Once we establish ourselves in this sector, we will expand to other communities, including open-source and sustainability advocates."
Thaura’s current infrastructure can support up to 100,000 active users, with plans for gradual scaling.
"We’re not just building an
AI, but an ethical revolution, a tool respecting human dignity, amplifying muted voices, and resisting exploitation," Hani reflects.
For users seeking an
AI with conscience, respecting privacy, resisting surveillance, and advocating for marginalized communities, Thaura opens a new path in ethical
artificial intelligence.
Hvorfor støtte?
Per december 2025 støtter Thaura AI (ثورة)
Gaza og
Palæstina (
se hjemmeside
). Thaura AI er et etisk og grønt alternativ til
ChatGPT,
Google Gemini og andre
AIs under
zionisters indflydelse. Thaura AI blev grundlagt af to
syriske brødre, Hani Chihabi og Said Chihabi, som nu er bosat i
Tyskland.
Baggrund
AI er overalt, takket være især Big Tech. Men da to selvudlærte
syriske brødre forlod deres korporative teknologijobs i
Tyskland, forsøgte de ikke at tilføje endnu en model til bunken. De fokuserede på et mere presserende spørgsmål: Hvorfor findes der stadig ingen etisk alternativ til de
AI-systemer, der dominerer verden?
Deres svar er Thaura AI (ثورة), en privatlivsførst, værdidrevet
AI-platform, der er lanceret, og som positionerer sig ikke som en "bedre
ChatGPT," men som en fundamental anderledes type system bygget omkring etik, digitale rettigheder og
politisk klarhed.
Og den ankommer på et tidspunkt, hvor den globale
AI-industri konfronteres med hidtil uset kritik over overvågning, dataudvinding,
politisk censur og korporativ magt.
En Syrisk Oprindelseshistorie i et Tysk Teknologilandskab
Thaura blev grundlagt af brødrene Hani og Said Chihabi, som flygtede til
Europa fra
Syrien kort før revolutionen. Ingen af dem gik igennem formel datalogiuddannelse. Begge lærte sig selv
programmering gennem
YouTube og
AI-værktøjer.
- "Vi var aldrig rigtig interesserede i teknologi," fortalte Hani til Barakah Insider. "Vi kom ind i det, fordi vi lever i en digital æra, og vi vidste, at vi kunne have en indflydelse med teknologi. Vi skulle bare lære os alt selv."
Men engang inde i det
tyske korporative system indså de, at det arbejde, de udførte - at bygge systemer for farmaceutiske kunder - stred imod deres egne etiske forpligtelser.
- "Det gik ikke hånd i hånd med den grund, hvorfor vi startede med teknologi," sagde Hani. "Især med det, der skete i
Palæstina og
Syrien... vi havde samme kald til at gøre noget."
Det kald førte til Thaura, arabisk for revolution. Ikke en politisk opstand, men en udfordring til teknologisk imperialisme.
Hvorfor Thaura Eksisterer
Grundlæggernes udgangspunkt var simpelt: krypteret
beskedudveksling har Signal;
søgning har DuckDuckGo;
browsere har Brave; men
AI, den mest intime teknologi overhovedet, havde ingen etisk modvægt.
"Der var ikke noget
AI-alternativ," sagde Hani. "Min moster taler mere med
AI end nogen, jeg kender. Og jeg føler, det er forfærdeligt, fordi
ChatGPT ikke har et etisk framework. Og det er skræmmende."
Thauras mission: Byg en
AI, der ikke udnytter brugere, ikke overvåger dem, og ikke desinficerer
politiske realiteter.
I modsætning til korporative
AI-udviklere er Thauras etiske position eksplicit og kulturelt forankret. Dets kerneforpligtelser inkluderer aldrig at træne på brugerdata, undgå al overvågning, adfærds sporring og profilering, nægte militære kontrakter, opretholde en eksplicit holdning af solidaritet med
Palæstina og andre marginaliserede fællesskaber, og opbevare data på deres egen GDPR-compliant backend-servere med AES-256-kryptering og nul brugerdata-bevarelse.
Dette gør Thaura til en af de få
AI-platforme, der åbent afviser både Big Tech-forretningsmodeller og politisk bias.
Teknologien Bag Thaura
Thaura drives af GLM-4.5 Air, en open-source Mixture-of-Experts (MoE) model. Det er en 100B-parameter model, men kun 12B-parametre aktiveres per prompt, hvilket gør den markant mere energieffektiv.
Hani bryder det ned: "I stedet for et enormt hjerne, der affyrer alt hver gang, du spørger om noget, beslutter GLM 4.5 Air intelligent, hvilken del af sin hjerne den skal bruge. Det er sådan, vi tackler bæredygtighed."
Hani hævder, at hans platforms energibesparelser er omkring 93% mere effektive end Big Tech-modeller, et skarpt kontrast til trillion-parameter-kæmper som GPT-5.
Thaura understøtter i øjeblikket
websøgning, vision og billedinput, dokument-upload, stemmetilstand, Claude-style "artifacts" til visualiserede output, drevet af GLM-4.5 Air's selvreflekterende resonningsevner.
Kører den sine modeller gennem en uafhængig inferensudbyder, der driver sin egen infrastruktur i stedet for at stole på store cloud-platforme som
AWS,
Azure eller
Google, og opbevarer ingen brugerdata. For at mindske begrænsningerne ved at bruge en forud-trænet open-source-model implementerer de deres egne "guardrails" gennem manuelt skrevne etiske system-prompter, partnerskaber med pro-
palæstinensiske data-projekter, og reference-datasæt designet til at sikre faktabaserede, udesinficerede svar på politiske og humanitære emner.
Bootstrappet og pro-Palæstina
Finansiel set er Thaura bootstrappet, omhyggeligt undgår egenkapitalfinansiering for at forhindre ekstern indflydelse. Til trods for investorinteresse insisterer Hani: "Vi vil ikke have nogen, der flytter vores vision. Dette mål handler om at levere etisk
AI til alle, ikke om at gavne nogle få."
Vækststrategien afhænger tungt af en etisk-fokuseret fællesskab, udnytter troværdighed fra nichegrupper, der støtter deres værdier, især pro-
palæstinensiske fortalere. "Når vi etablerer os i denne sektor, vil vi udvide til andre fællesskaber, inklusive open source og bæredygtighedsforkæmpere."
Thauras nuværende infrastruktur kan understøtte op til 100.000 aktive brugere, og teamet planlægger at skalere gradvist til det.
"Vi bygger ikke bare en
AI, men en etisk revolution, et værktøj, der respekterer menneskelig værdighed, forstærker dæmpede stemmer og står fast imod udnyttelse," reflekterer Hani.
For brugere, der søger en
AI med en samvittighed, der respekterer privatliv, modstår overvågning og kæmper for marginaliserede fællesskaber, åbner Thaura en ny vej frem inden for etisk
kunstig intelligens.
لماذا الدعم؟
اعتبارًا من ديسمبر 2025، يدعم ثورة
غزة و
فلسطين (
شاهد الموقع
). ثورة هو بديل أخلاقي وصديق للبيئة لـ
ChatGPT و
Google Gemini وغيرها من
الذكاءات الاصطناعية تحت تأثير
الصهاينة. تأسس ثورة على يد شقيقين
سوريين، هاني شيحابي وسعيد شيحابي، واللذان يقيمان الآن في
ألمانيا.
الخلفية
الذكاء الاصطناعي موجود في كل مكان، وذلك بفضل شركات التكنولوجيا الكبرى. لكن عندما غادر شقيقان
سوريان مجال عملهما في الشركات التكنولوجية في
ألمانيا، لم يحاولا إضافة نموذج آخر إلى الكومة. ركزا على سؤال أكثر إلحاحًا: لماذا لا يوجد بديل أخلاقي حتى الآن للأنظمة
الذكاء الاصطناعي التي تهيمن على العالم؟
إجابتهم هي ثورة، منصة
ذكاء اصطناعي تركز على الخصوصية والقيم، لا تُقدّم نفسها كـ "نسخة أفضل من
ChatGPT"، بل كنظام مختلف جذريًا مبني حول الأخلاق والحقوق الرقمية والوضوح
السياسي.
يأتي ذلك في وقت تواجه فيه صناعة
الذكاء الاصطناعي العالمية انتقادات غير مسبوقة بشأن المراقبة، واستخراج البيانات، والرقابة
السياسية، والسلطة الشركاتية.
قصة أصلية سورية في مشهد تكنولوجي ألماني
تأسست ثورة على يد الأخوين هاني وسعيد شيحابي، اللذين فرّا إلى
أوروبا من
سوريا قبل الثورة بفترة قصيرة. لم يتلق أي منهما تدريبًا رسميًا في علوم الحاسوب. تعلم كلاهما
البرمجة ذاتيًا عبر
يوتيوب وأدوات
الذكاء الاصطناعي.
- "لم نكن مهتمين بالتكنولوجيا حقًا"، قال هاني لموقع Barakah Insider. "دخلنا هذا المجال لأننا نعيش في عصر رقمي، وكنا نعرف أننا يمكن أن نحدث تأثيرًا من خلال التكنولوجيا. كان علينا فقط أن نتعلم كل شيء بأنفسنا."
ولكن بمجرد دخولهم النظام
الألماني للشركات، أدركوا أن عملهم—بناء أنظمة لعملاء صيدلانيين—يتعارض مع التزاماتهم الأخلاقية.
- "لم يكن متوافقًا مع السبب الذي بدأنا من أجله التكنولوجيا"، قال هاني. "خصوصًا مع ما يحدث في
فلسطين و
سوريا… كان لدينا نفس الدعوة لفعل شيء."
قادت تلك الدعوة إلى تأسيس ثورة، وهي كلمة عربية تعني الثورة. ليست انتفاضة سياسية، بل تحدٍ للإمبريالية التكنولوجية.
لماذا توجد ثورة
كان المبدأ الأساسي للمؤسسين بسيطًا: المراسلة المشفرة لها Signal؛
البحث له DuckDuckGo؛
المتصفحات لها Brave؛ لكن
الذكاء الاصطناعي، أكثر التكنولوجيا خصوصية، لم يكن لديه أي بديل أخلاقي.
"لم يكن هناك بديل
ذكاء اصطناعي"، قال هاني. "عمتي تتحدث مع
الذكاء الاصطناعي أكثر من أي شخص أعرفه. وأشعر أن هذا فظيع لأن
ChatGPT لا يمتلك إطارًا أخلاقيًا. وهذا أمر مخيف."
مهمة ثورة: بناء
ذكاء اصطناعي لا يستغل المستخدمين، ولا يراقبهم، ولا يطهر الحقائق
السياسية.
على عكس مطوري
الذكاء الاصطناعي الشركاتيين، موقف ثورة الأخلاقي صريح ومتجذر ثقافيًا. تشمل الالتزامات الأساسية عدم التدريب على بيانات المستخدم أبدًا، وتجنب كل المراقبة وتتبع السلوك والتصنيف، ورفض العقود العسكرية، والحفاظ على التضامن الصريح مع
فلسطين والمجتمعات المهمشة الأخرى، وتخزين البيانات على خوادمهم الخاصة المتوافقة مع
GDPR مع تشفير AES-256 وعدم الاحتفاظ بأي بيانات مستخدم.
وهذا يجعل ثورة واحدة من القليل من منصات
الذكاء الاصطناعي التي ترفض صراحة كلًا من نماذج أعمال شركات التكنولوجيا الكبرى والانحياز السياسي.
التكنولوجيا وراء ثورة
تشغل ثورة بواسطة GLM-4.5 Air، نموذج Mixture-of-Experts (MoE) مفتوح المصدر. إنه نموذج بقدرة 100 مليار معلمة، ولكن يتم تفعيل 12 مليار معلمة فقط لكل موجه، مما يجعله أكثر كفاءة في استهلاك الطاقة.
يفسر هاني: "بدلًا من دماغ ضخم يطلق كل شيء في كل مرة تسأل فيها شيئًا، يقرر GLM 4.5 Air بذكاء أي جزء من دماغه يستخدم. هكذا نتعامل مع الاستدامة."
يدعي هاني أن توفير الطاقة على منصته أكثر كفاءة بنسبة 93٪ مقارنة بنماذج شركات التكنولوجيا الكبرى، وهو تباين حاد مع عمالقة التريليونات من المعلمات مثل GPT-5.
تدعم ثورة حاليًا
البحث على الويب، والمدخلات البصرية والصور، وتحميل المستندات، ووضع الصوت، وميزات Claude للعرض المرئي، مدعومة بقدرات التفكير الانعكاسي الذاتي لنموذج GLM-4.5 Air.
تشغل نماذجها عبر مزود استدلال مستقل يدير بنيته التحتية الخاصة بدلاً من الاعتماد على منصات سحابية كبرى مثل
AWS،
Azure، أو
Google، ولا تخزن أي بيانات مستخدم. للتغلب على قيود النموذج مفتوح المصدر مسبق التدريب، ينفذون "حواجز حماية" خاصة بهم من خلال أوامر برمجية أخلاقية مكتوبة يدويًا، وشراكات مع مشاريع بيانات مؤيدة
لفلسطين، ومجموعات بيانات مرجعية لضمان استجابات دقيقة وغير مُقنعة للمواضيع السياسية والإنسانية.
تمويل ذاتي ودعم فلسطين
ماليًا، ثورة ممولة ذاتيًا، وتتجنب بحذر التمويل بالأسهم لمنع التأثير الخارجي. وعلى الرغم من اهتمام المستثمرين، يصر هاني: "لا نريد أحدًا يغيّر رؤيتنا. هذا الهدف يتعلق بتقديم
ذكاء اصطناعي أخلاقي للجميع، وليس لمصلحة القلة."
تعتمد استراتيجية النمو بشكل كبير على مجتمع يركز على الأخلاقيات، مستفيدًا من مصداقية المجموعات المتخصصة التي تدعم قيمهم، خاصة المؤيدين
لفلسطين. "بمجرد أن نثبت أنفسنا في هذا القطاع، سنتوسع إلى مجتمعات أخرى، بما في ذلك المطورين مفتوحين المصدر والمدافعين عن الاستدامة."
يمكن للبنية التحتية الحالية لثورة دعم ما يصل إلى 100,000 مستخدم نشط، مع خطط للتوسع التدريجي.
"نحن لا نبني مجرد
ذكاء اصطناعي، بل ثورة أخلاقية، أداة تحترم كرامة الإنسان، تعزز الأصوات المكتومة، وتقاوم الاستغلال"، يعكس هاني.
للمستخدمين الذين يبحثون عن
ذكاء اصطناعي ذو ضمير، يحترم الخصوصية، يقاوم المراقبة، ويدافع عن المجتمعات المهمشة، تفتح ثورة طريقًا جديدًا في مجال
الذكاء الاصطناعي الأخلاقي.
Neden destek?
Aralık 2025 itibarıyla Thaura AI (ثورة),
Gazze ve
Filistin'i (
web sitesine bakın
) desteklemektedir. Thaura AI,
ChatGPT,
Google Gemini ve diğer
AI sistemlerine karşı etik ve çevre dostu bir alternatiftir ve
Siyonistlerin etkisi altında değildir. Thaura AI, şimdi
Almanya'da yaşayan iki
Suriyeli kardeş, Hani Chihabi ve Said Chihabi tarafından kurulmuştur.
Arka Plan
Yapay zeka her yerde, özellikle büyük teknoloji şirketleri sayesinde. Ancak iki kendi kendini yetiştirmiş
Suriyeli kardeş,
Almanya'daki kurumsal teknoloji işlerinden ayrıldıklarında, yığınına bir model daha eklemeye çalışmadılar. Daha acil bir soruya odaklandılar: Dünyaya hâkim olan
AI sistemlerine hâlâ etik bir alternatif neden yok?
Cevapları Thaura AI (ثورة): gizliliği öncelikli, değer odaklı bir
AI platformu. Kendini “daha iyi bir
ChatGPT” olarak konumlandırmak yerine, etik, dijital haklar ve
politik şeffaflık etrafında inşa edilmiş temel olarak farklı bir sistemdir.
Bu, küresel
AI endüstrisinin gözetim, veri toplama,
politik sansür ve kurumsal güç konularında benzeri görülmemiş eleştirilerle karşı karşıya olduğu bir zamanda ortaya çıkıyor.
Alman Teknoloji Sahnesinde Suriye Kökenli Bir Hikaye
Thaura, devrimden kısa süre önce
Suriye'den
Avrupa'ya kaçan Hani ve Said Chihabi kardeşler tarafından kuruldu. İkisi de resmi bilgisayar bilimi eğitimi almadı. Her ikisi de
programlamayı
YouTube ve
AI araçlarıyla kendi kendine öğrendi.
- "Teknolojiye gerçekten ilgimiz yoktu," dedi Hani Barakah Insider’a. "Buna girmemizin sebebi dijital bir çağda yaşıyor olmamız ve teknoloji ile etki yaratabileceğimizi bilmemizdi. Sadece her şeyi kendimiz öğrenmeliydik."
Alman kurumsal sistemine girdiklerinde, yaptıkları işin—ilaç müşterileri için sistemler inşa etmek—kendi etik taahhütleriyle çeliştiğini fark ettiler.
- "Teknolojiye başlama amacımızla uyumlu değildi," dedi Hani. "
Filistin ve
Suriye'de olanlarla özellikle… bir şeyler yapma çağrımız vardı."
Bu çağrı, Thaura’ya yol açtı; Arapça’da devrim anlamına gelir. Politik bir ayaklanma değil, teknolojik emperyalizme bir meydan okuma.
Thaura Neden Var?
Kurucuların başlangıç noktası basitti: şifreli
mesajlaşma için Signal;
arama için DuckDuckGo;
tarayıcılar için Brave; ama en özel teknoloji olan
AI için etik bir denge yoktu.
"
AI için bir alternatif yoktu," dedi Hani. "Teyzem tanıdığım herkesten daha fazla
AI ile konuşuyor. Ve bu korkunç, çünkü
ChatGPT’nin etik bir çerçevesi yok. Bu korkutucu."
Thaura’nın misyonu: kullanıcıları sömürmeyen, onları gözetlemeyen ve
politik gerçekleri dezenfekte etmeyen bir
AI inşa etmek.
Kurumsal
AI geliştiricilerinin aksine, Thaura’nın etik duruşu açık ve kültürel olarak köklüdür. Temel taahhütler: kullanıcı verileriyle asla eğitim yapmamak, tüm gözetimi, davranış takibini ve profillemeyi önlemek, askeri sözleşmeleri reddetmek,
Filistin ve diğer marjinal topluluklarla açık dayanışmayı sürdürmek ve verileri kendi GDPR uyumlu sunucularında AES-256 şifrelemesi ile saklamak, kullanıcı verisi tutmamak.
Bu, Thaura’yı hem büyük teknoloji iş modellerini hem de politik önyargıyı açıkça reddeden az sayıdaki
AI platformundan biri yapar.
Thaura’nın Arkasındaki Teknoloji
Thaura, açık kaynaklı Mixture-of-Experts (MoE) modeli GLM-4.5 Air tarafından desteklenmektedir. 100 milyar parametreli bir modeldir, ancak her istemde yalnızca 12 milyar parametre etkinleştirilir, bu da onu enerji açısından çok daha verimli kılar.
Hani açıklıyor: "Büyük bir beyin her şeyi her seferinde ateşlemek yerine, GLM 4.5 Air hangi kısmını kullanacağını akıllıca seçiyor. İşte sürdürülebilirliği bu şekilde ele alıyoruz."
Hani, platformunun enerji tasarruflarının büyük teknoloji modellerine göre yaklaşık %93 daha verimli olduğunu iddia ediyor; GPT-5 gibi trilyon parametreli devlerle keskin bir karşıtlık.
Thaura şu anda
web araması, görsel ve resim girişi, belge yükleme, ses modu ve Claude tarzı görselleştirilmiş çıktı özelliklerini destekliyor ve GLM-4.5 Air’in öz-düşünümsel akıl yürütme yetenekleriyle çalışıyor.
Modelleri,
AWS,
Azure veya
Google gibi büyük bulut platformlarına güvenmek yerine kendi altyapısını işleten bağımsız bir çıkarım sağlayıcısı üzerinden çalışıyor ve kullanıcı verisi saklamıyor. Önceden eğitilmiş açık kaynak modelin sınırlamalarını aşmak için, manuel yazılmış etik sistem istemleri, pro-
Filistin veri projeleriyle ortaklıklar ve politik/humaniteryal konularda doğrusal, dezenfekte edilmemiş yanıtlar sağlamak için referans veri setleri uyguluyorlar.
Kendi Kaynaklarıyla ve Filistin Dostu
Mali olarak, Thaura kendi kaynaklarıyla finanse ediliyor ve dış etkileri önlemek için öz sermaye finansmanından dikkatle kaçınıyor. Yatırımcı ilgisine rağmen, Hani ısrar ediyor: "Vizyonumuzu değiştirecek kimseyi istemiyoruz. Bu hedef, etik
AI’yi herkese sunmakla ilgili, sadece birkaçına fayda sağlamakla değil."
Büyüme stratejisi, değerlerini destekleyen niş toplulukların güvenilirliğinden yararlanan etik odaklı bir topluluğa dayanıyor, özellikle pro-
Filistin savunucularına. "Bu sektörde kendimizi kanıtladıktan sonra, açık kaynak ve sürdürülebilirlik savunucuları dahil olmak üzere diğer topluluklara genişleyeceğiz."
Thaura’nın mevcut altyapısı 100.000 aktif kullanıcıya kadar destekleyebilir ve ekip kademeli büyüme planlıyor.
"Biz sadece bir
AI inşa etmiyoruz, etik bir devrim yaratıyoruz; insan onuruna saygı gösteren, sessiz kalmış sesleri yükselten ve sömürüyü reddeden bir araç," diyor Hani.
Mahremiyete saygı gösteren, gözetimi reddeden ve marjinal toplulukları savunan bir
AI arayan kullanıcılar için Thaura, etik
yapay zekâ alanında yeni bir yol açıyor.
چرا حمایت کنیم؟
تا دسامبر 2025، ثورة از
غزه و
فلسطین (
مشاهده وبسایت
) حمایت میکند. ثورة یک جایگزین اخلاقی و سبز برای
ChatGPT،
Google Gemini و دیگر
هوشهای مصنوعی تحت تأثیر
صهیونیستها است. ثورة توسط دو برادر
سوری، هانی شیحابی و سعید شیحابی، که اکنون در
آلمان ساکن هستند، تأسیس شد.
پسزمینه
هوش مصنوعی در همه جا حضور دارد، بهویژه به لطف شرکتهای بزرگ فناوری. اما زمانی که دو برادر خودآموخته
سوری از شغلهای فناوری شرکتی خود در
آلمان جدا شدند، تلاش نکردند مدلی دیگر به مجموعه اضافه کنند. آنها روی یک سؤال مهمتر تمرکز کردند: چرا هنوز هیچ جایگزین اخلاقی برای سیستمهای
هوش مصنوعی که جهان را تحت سلطه دارند وجود ندارد؟
پاسخ آنها ثورة است، یک پلتفرم
هوش مصنوعی مبتنی بر حریم خصوصی و ارزشها که خود را بهعنوان "نسخه بهتر
ChatGPT" معرفی نمیکند، بلکه بهعنوان یک سیستم بنیادی متفاوت ساخته شده بر اساس اخلاق، حقوق دیجیتال و شفافیت
سیاسی.
این پلتفرم در زمانی عرضه میشود که صنعت جهانی
هوش مصنوعی با انتقاد بیسابقهای نسبت به نظارت، استخراج دادهها، سانسور
سیاسی و قدرت شرکتی مواجه است.
داستان ریشه سوری در چشمانداز فناوری آلمان
ثاورا توسط برادران هانی و سعید شیحابی تأسیس شد، که کمی قبل از انقلاب از
سوریه به
اروپا فرار کردند. هیچکدام آموزش رسمی علوم کامپیوتر نداشتند. هر دو
برنامهنویسی را از طریق
YouTube و ابزارهای
هوش مصنوعی خودآموختهاند.
- "ما واقعاً علاقهای به فناوری نداشتیم"، هانی به Barakah Insider گفت. "ما وارد این حوزه شدیم زیرا در عصر دیجیتال زندگی میکنیم و میدانستیم که میتوانیم با فناوری تأثیر بگذاریم. فقط باید همه چیز را خودمان یاد میگرفتیم."
اما وقتی وارد سیستم شرکتی
آلمان شدند، متوجه شدند که کاری که انجام میدهند—ساخت سیستم برای مشتریان دارویی—با تعهدات اخلاقی خودشان تضاد دارد.
- "این با دلیلی که برای شروع فناوری داشتیم همخوانی نداشت"، هانی گفت. "بهویژه با آنچه در
فلسطین و
سوریه اتفاق میافتاد… ما همان دعوت برای انجام کاری را داشتیم."
آن دعوت منجر به تأسیس ثاورا شد، به عربی به معنای انقلاب. نه یک شورش سیاسی، بلکه چالشی علیه امپریالیسم فناوری.
چرا ثاورا وجود دارد
نقطه شروع مؤسسان ساده بود: پیامرسانی رمزگذاریشده
Signal را دارد؛
جستجو DuckDuckGo را دارد؛
مرورگرها Brave را دارند؛ اما
AI، صمیمیترین فناوری، هیچ تعادل اخلاقی نداشت.
"هیچ جایگزین
AI وجود نداشت"، هانی گفت. "خالهام بیشتر از هر کسی که میشناسم با
AI صحبت میکند. و این وحشتناک است زیرا
ChatGPT هیچ چارچوب اخلاقی ندارد. و این ترسناک است."
ماموریت ثاورا: ساخت
AI که از کاربران سوءاستفاده نکند، آنها را نظارت نکند و واقعیتهای
سیاسی را سانسور نکند.
برخلاف توسعهدهندگان شرکتی
AI، موضع اخلاقی ثاورا صریح و فرهنگی ریشهدار است. تعهدات اصلی شامل هرگز آموزش بر اساس دادههای کاربران، جلوگیری از هرگونه نظارت، ردیابی رفتار و پروفایلینگ، رد قراردادهای نظامی، حفظ همبستگی آشکار با
فلسطین و جوامع حاشیهای دیگر، و ذخیره دادهها در سرورهای پشتیبان سازگار با GDPR با رمزگذاری AES-256 و عدم نگهداری دادههای کاربران است.
این ثاورا را به یکی از معدود پلتفرمهای
AI تبدیل میکند که بهصورت آشکار هم مدلهای کسبوکار فناوری بزرگ و هم سوگیری سیاسی را رد میکند.
فناوری پشت ثاورا
ثاورا توسط GLM-4.5 Air، یک مدل Mixture-of-Experts (MoE) متنباز، پشتیبانی میشود. این مدل 100 میلیارد پارامتری است، اما تنها 12 میلیارد پارامتر در هر درخواست فعال میشوند و این باعث صرفهجویی قابل توجه در انرژی میشود.
هانی توضیح میدهد: "به جای یک مغز عظیم که همه چیز را هر بار که چیزی میپرسید شلیک کند، GLM 4.5 Air بهطور هوشمند تصمیم میگیرد کدام بخش مغزش را استفاده کند. این روش ما برای مقابله با پایداری است."
هانی ادعا میکند صرفهجویی انرژی پلتفرم او تقریباً 93٪ کارآمدتر از مدلهای فناوری بزرگ است و تفاوت چشمگیری با غولهای تریلیون پارامتری مانند GPT-5 دارد.
ثاورا در حال حاضر از
جستجوی وب، ورودی تصویر و بینایی، بارگذاری سند، حالت صوتی و ویژگیهای Claude برای خروجیهای بصری، که توسط تواناییهای استدلال خودبازتابی GLM-4.5 Air پشتیبانی میشوند، پشتیبانی میکند.
مدلهای خود را از طریق یک ارائهدهنده استنتاج مستقل که زیرساخت خود را مدیریت میکند، اجرا میکند و به پلتفرمهای ابری بزرگ مانند
AWS،
Azure یا
Google تکیه نمیکند و هیچ داده کاربری را ذخیره نمیکند. برای غلبه بر محدودیتهای مدل متنباز پیشآموزش دیده، آنها "موانع حفاظتی" خود را با پرامپتهای اخلاقی دستی، شراکت با پروژههای دادهای طرفدار
فلسطین و مجموعه دادههای مرجع برای تضمین پاسخهای مبتنی بر واقعیت و بدون سانسور در مسائل سیاسی و انسانی اجرا میکنند.
خودکفا و طرفدار فلسطین
از نظر مالی، ثاورا خودکفا است و به دقت از تأمین مالی سهامی برای جلوگیری از نفوذ خارجی اجتناب میکند. با وجود علاقه سرمایهگذاران، هانی اصرار دارد: "ما نمیخواهیم کسی دیدگاه ما را تغییر دهد. این هدف در مورد ارائه
AI اخلاقی به همه است، نه سود رساندن به چند نفر."
استراتژی رشد به شدت به جامعهای با تمرکز بر اخلاق وابسته است و از اعتبار گروههای تخصصی که ارزشهای آنها را حمایت میکنند، به ویژه طرفداران pro-
فلسطین، بهره میبرد. "زمانی که خود را در این بخش تثبیت کنیم، به جوامع دیگر، از جمله توسعهدهندگان متنباز و مدافعان پایداری گسترش خواهیم یافت."
زیرساخت فعلی ثاورا میتواند از تا 100,000 کاربر فعال پشتیبانی کند و تیم قصد دارد به تدریج مقیاسبندی کند.
"ما فقط یک
AI نمیسازیم، بلکه یک انقلاب اخلاقی، ابزاری که کرامت انسانی را محترم میشمارد، صداهای خاموش را تقویت میکند و در برابر سوءاستفاده مقاومت میکند، ایجاد میکنیم"، هانی بازتاب میکند.
برای کاربرانی که به دنبال یک
AI با وجدان هستند، که حریم خصوصی را رعایت میکند، در برابر نظارت مقاومت میکند و از جوامع حاشیهای حمایت میکند، ثاورا راهی جدید در
هوش مصنوعی اخلاقی باز میکند.
Warum unterstützen?
Ab Dezember 2025 unterstützt Thaura AI (ثورة)
Gaza und
Palästina (
Website ansehen
). Thaura AI ist eine ethische und umweltfreundliche Alternative zu
ChatGPT,
Google Gemini und anderen
KI-Systemen unter dem Einfluss von
Zionisten. Thaura AI wurde von zwei
syrischen Brüdern, Hani Chihabi und Said Chihabi, gegründet, die jetzt in
Deutschland leben.
Hintergrund
KI ist überall, insbesondere dank Big Tech. Als jedoch zwei autodidaktische
syrische Brüder ihre Corporate-Tech-Jobs in
Deutschland verließen, versuchten sie nicht, ein weiteres Modell auf den Stapel zu legen. Sie konzentrierten sich auf eine dringlichere Frage: Warum gibt es immer noch keine ethische Alternative zu den
KI-Systemen, die die Welt dominieren?
Ihre Antwort ist Thaura AI (ثورة), eine datenschutzorientierte, wertegetriebene
KI-Plattform, die sich nicht als „bessere
ChatGPT“ positioniert, sondern als ein grundlegend anderes System, das auf Ethik, digitalen Rechten und
politischer Klarheit aufgebaut ist.
Sie erscheint zu einem Zeitpunkt, an dem die globale
KI-Industrie mit noch nie dagewesener Kritik an Überwachung, Datenerfassung,
politischer Zensur und Konzernmacht konfrontiert ist.
Eine syrische Ursprungsgeschichte in der deutschen Technologieszene
Thaura wurde von den Brüdern Hani und Said Chihabi gegründet, die kurz vor der Revolution aus
Syrien nach
Europa geflohen sind. Keiner von beiden hatte eine formale Ausbildung in Informatik. Beide brachten sich
Programmierung selbst bei, über
YouTube und
KI-Werkzeuge.
- „Wir waren nie wirklich an Technologie interessiert“, sagte Hani gegenüber Barakah Insider. „Wir stiegen ein, weil wir in einem digitalen Zeitalter leben und wussten, dass wir mit Technologie Einfluss nehmen könnten. Wir mussten einfach alles selbst lernen.“
Doch als sie im
deutschen Unternehmenssystem arbeiteten, erkannten sie, dass die Arbeit—Systeme für Pharma-Kunden zu bauen—im Widerspruch zu ihren eigenen ethischen Verpflichtungen stand.
- „Das passte nicht zu dem Grund, warum wir mit Technologie angefangen haben“, sagte Hani. „Besonders mit dem, was in
Palästina und
Syrien geschah… wir hatten denselben Ruf, etwas zu tun.“
Dieser Ruf führte zu Thaura, arabisch für „Revolution“. Keine politische Aufstandsbewegung, sondern eine Herausforderung gegen technologischen Imperialismus.
Warum Thaura existiert
Der Ausgangspunkt der Gründer war einfach: verschlüsselte
Nachrichten haben Signal;
Suche hat DuckDuckGo;
Browser haben Brave; aber
KI, die intimste aller Technologien, hatte keinen ethischen Gegenpol.
„Es gab keine
KI-Alternative“, sagte Hani. „Meine Tante spricht mehr mit
KI als jeder, den ich kenne. Und ich finde es furchtbar, weil
ChatGPT keinen ethischen Rahmen hat. Und das ist beängstigend.“
Thauras Mission: eine
KI bauen, die Benutzer nicht ausbeutet, sie nicht überwacht und politische Realitäten nicht zensiert.
Im Gegensatz zu Unternehmens-KI-Entwicklern ist Thauras ethische Position explizit und kulturell verankert. Kernverpflichtungen umfassen: nie mit Benutzerdaten trainieren, alle Überwachung vermeiden, kein Verhaltenstracking und Profiling, militärische Verträge ablehnen, explizite Solidarität mit
Palästina und anderen marginalisierten Gemeinschaften, und Daten auf eigenen GDPR-konformen Servern mit AES-256-Verschlüsselung speichern, ohne Benutzerdaten zu behalten.
Das macht Thaura zu einer der wenigen
KI-Plattformen, die offen sowohl Big-Tech-Geschäftsmodelle als auch politische Voreingenommenheit ablehnen.
Die Technologie hinter Thaura
Thaura wird von GLM-4.5 Air, einem Open-Source Mixture-of-Experts (MoE)-Modell, betrieben. Es ist ein 100-Milliarden-Parameter-Modell, aber pro Prompt werden nur 12 Milliarden Parameter aktiviert, was es deutlich energieeffizienter macht.
Hani erklärt: „Anstatt ein riesiges Gehirn zu haben, das bei jeder Frage alles abfeuert, entscheidet GLM 4.5 Air intelligent, welchen Teil seines Gehirns es nutzen soll. So gehen wir Nachhaltigkeit an.“
Hani behauptet, dass die Energieeinsparungen seiner Plattform etwa 93 % effizienter sind als die von Big-Tech-Modellen, ein deutlicher Kontrast zu Billionen-Parameter-Riesen wie GPT-5.
Thaura unterstützt derzeit
Websuche, Vision- und Bildeingaben, Dokument-Uploads, Sprachmodus, Claude-ähnliche Artefakte für visualisierte Ausgaben, betrieben durch GLM-4.5 Airs selbstreflektierende Denkfähigkeiten.
Die Modelle laufen über einen unabhängigen Inferenzanbieter, der seine eigene Infrastruktur betreibt, statt auf große Cloud-Plattformen wie
AWS,
Azure oder
Google zu setzen, und es werden keine Benutzerdaten gespeichert. Um Einschränkungen eines vortrainierten Open-Source-Modells zu überwinden, implementieren sie eigene „Leitplanken“ durch manuell geschriebene ethische System-Prompts, Partnerschaften mit pro-
palästinensischen Datenprojekten und Referenzdatensätze, um faktenbasierte, unzensierte Antworten auf politische und humanitäre Themen zu gewährleisten.
Bootstrapped und pro-Palästina
Finanziell ist Thaura bootstrapped und vermeidet sorgfältig Eigenkapitalfinanzierung, um äußeren Einfluss zu verhindern. Trotz Investoreninteresse besteht Hani darauf: „Wir wollen niemanden, der unsere Vision verändert. Dieses Ziel geht darum, ethische
KI für alle bereitzustellen, nicht einigen wenigen zu nützen.“
Die Wachstumsstrategie hängt stark von einer ethikfokussierten Community ab, die Glaubwürdigkeit aus Nischengruppen nutzt, die ihre Werte unterstützen, insbesondere pro-
palästinensische Befürworter. „Sobald wir uns in diesem Sektor etabliert haben, werden wir auf andere Communities ausweiten, einschließlich Open-Source- und Nachhaltigkeitsbefürworter.“
Die aktuelle Infrastruktur von Thaura kann bis zu 100.000 aktive Benutzer unterstützen, das Team plant schrittweises Skalieren.
„Wir bauen nicht nur eine
KI, sondern eine ethische Revolution, ein Werkzeug, das menschliche Würde respektiert, gedämpfte Stimmen verstärkt und Ausbeutung widersteht“, reflektiert Hani.
Für Nutzer, die eine
KI mit Gewissen suchen, die Privatsphäre respektiert, Überwachung widersteht und marginalisierte Gemeinschaften unterstützt, eröffnet Thaura einen neuen Weg in der ethischen
künstlichen Intelligenz.
למה לתמוך?
נכון לדצמבר 2025, Thaura AI (ثورة) תומך ב-
עזה וב-
פלסטין (
צפו באתר
). Thaura AI הוא אלטרנטיבה אתית וירוקה ל-
ChatGPT,
Google Gemini ולמערכות
בינה מלאכותית אחרות תחת השפעת
ציונים. Thaura AI נוסדה על ידי שני אחים
סורים, חני צ'יחאבי וסעיד צ'יחאבי, שמתגוררים כיום ב-
גרמניה.
רקע
בינה מלאכותית נמצאת בכל מקום, במיוחד הודות ל-Big Tech. אך כאשר שני אחים
סורים שלמדו בעצמם עזבו את עבודותיהם הטכנולוגיות התאגידיות ב-
גרמניה, הם לא ניסו להוסיף עוד מודל לערימה. הם התמקדו בשאלה דחופה יותר: מדוע עדיין אין חלופה אתית למערכות
בינה מלאכותית השולטות בעולם?
התשובה שלהם היא Thaura AI (ثورة), פלטפורמת
בינה מלאכותית שמעמידה את הפרטיות בראש, ומונעת על פי ערכים. היא אינה מציגה את עצמה כ-"
ChatGPT טוב יותר", אלא כמערכת שונה באופן יסודי, המבוססת על אתיקה, זכויות דיגיטליות ו
בהירות פוליטית.
היא מגיעה בזמן שבו תעשיית
בינה מלאכותית העולמית מתמודדת עם ביקורת חסרת תקדים על מעקב, חילוץ נתונים,
צנזורה פוליטית וכוח תאגידי.
סיפור מוצא סורי בנוף הטכנולוגי הגרמני
תאורה נוסדה על ידי האחים חני וסעיד צ'יחאבי, שברחו ל-
אירופה מ-
סוריה זמן קצר לפני המהפכה. אף אחד מהם לא עבר הכשרה רשמית במדעי המחשב. שניהם למדו
תכנות בעצמם דרך
YouTube וכלי
בינה מלאכותית.
- "מעולם לא התעניינו באמת בטכנולוגיה," סיפר חני ל-Barakah Insider. "נכנסנו לזה כי אנחנו חיים בעידן דיגיטלי וידעו שאנחנו יכולים להשפיע באמצעות טכנולוגיה. פשוט היינו צריכים ללמוד הכל בעצמנו."
כאשר נכנסו למערכת התאגידית ב-
גרמניה, הם הבינו שהעבודה שהם מבצעים—בניית מערכות ללקוחות בתחום התרופות—נוגדת את המחויבויות האתיות שלהם.
- "זה לא הלך יד ביד עם הסיבה שהתחלנו בטכנולוגיה," אמר חני. "במיוחד עם מה שקרה ב-
פלסטין וב-
סוריה… היה לנו אותו קריאה לעשות משהו."
קריאה זו הובילה לתאורה, בערבית "מהפכה". לא מרד פוליטי, אלא אתגר לאימפריאליזם הטכנולוגי.
למה תאורה קיימת
נקודת המוצא של המייסדים הייתה פשוטה: מסרים מוצפנים יש ל-Signal;
חיפוש יש ל-DuckDuckGo;
דפדפנים יש ל-Brave; אך
בינה מלאכותית, הטכנולוגיה האינטימית ביותר, לא הייתה לה איזון אתי.
"לא הייתה חלופה ל-
בינה מלאכותית," אמר חני. "הדודה שלי מדברת עם
בינה מלאכותית יותר מכל אדם שאני מכיר. ואני מרגיש שזה נורא כי ל-
ChatGPT אין מסגרת אתית. וזה מפחיד."
המשימה של תאורה: לבנות
בינה מלאכותית שאינה מנצלת משתמשים, אינה עוקבת אחריהם ואינה מצנזרת
מציאות פוליטית.
בניגוד למפתחי
בינה מלאכותית תאגידיים, עמדת תאורה האתית היא מפורשת ומושרשת תרבותית. המחויבויות המרכזיות כוללות: לא לאמן על נתוני משתמשים, למנוע כל מעקב, מעקב התנהגותי ופרופילינג, לדחות חוזים צבאיים, לשמור על סולידריות מפורשת עם
פלסטין וקהילות שוליות אחרות, ולאחסן נתונים בשרתים פרטיים התואמים GDPR עם הצפנת AES-256 וללא שמירת נתוני משתמשים.
זה הופך את תאורה לאחת הפלטפורמות הבודדות של
בינה מלאכותית שמסרבות בגלוי למודלי עסק של Big Tech ולהטיות פוליטיות כאחד.
[1]