To TopSearch

Hvorfor støtte?

Per december 2025 støtter Thaura AI (ثورة) Gaza og Palæstina (se hjemmeside). Thaura AI er et etisk og grønt alternativ til ChatGPT, Google Gemini og andre AIs under zionisters indflydelse. Thaura AI blev grundlagt af to syriske brødre, Hani Chihabi og Said Chihabi, som nu er bosat i Tyskland.

Baggrund
AI er overalt, takket være især Big Tech. Men da to selvudlærte syriske brødre forlod deres korporative teknologijobs i Tyskland, forsøgte de ikke at tilføje endnu en model til bunken. De fokuserede på et mere presserende spørgsmål: Hvorfor findes der stadig ingen etisk alternativ til de AI-systemer, der dominerer verden?

Deres svar er Thaura AI (ثورة), en privatlivsførst, værdidrevet AI-platform, der er lanceret, og som positionerer sig ikke som en "bedre ChatGPT," men som en fundamental anderledes type system bygget omkring etik, digitale rettigheder og politisk klarhed.

Og den ankommer på et tidspunkt, hvor den globale AI-industri konfronteres med hidtil uset kritik over overvågning, dataudvinding, politisk censur og korporativ magt.

En Syrisk Oprindelseshistorie i et Tysk Teknologilandskab
Thaura blev grundlagt af brødrene Hani og Said Chihabi, som flygtede til Europa fra Syrien kort før revolutionen. Ingen af dem gik igennem formel datalogiuddannelse. Begge lærte sig selv programmering gennem YouTube og AI-værktøjer.

- "Vi var aldrig rigtig interesserede i teknologi," fortalte Hani til Barakah Insider. "Vi kom ind i det, fordi vi lever i en digital æra, og vi vidste, at vi kunne have en indflydelse med teknologi. Vi skulle bare lære os alt selv."

Men engang inde i det tyske korporative system indså de, at det arbejde, de udførte - at bygge systemer for farmaceutiske kunder - stred imod deres egne etiske forpligtelser.

- "Det gik ikke hånd i hånd med den grund, hvorfor vi startede med teknologi," sagde Hani. "Især med det, der skete i Palæstina og Syrien... vi havde samme kald til at gøre noget."

Det kald førte til Thaura, arabisk for revolution. Ikke en politisk opstand, men en udfordring til teknologisk imperialisme.

Hvorfor Thaura Eksisterer
Grundlæggernes udgangspunkt var simpelt: krypteret beskedudveksling har Signal; søgning har DuckDuckGo; browsere har Brave; men AI, den mest intime teknologi overhovedet, havde ingen etisk modvægt.

"Der var ikke noget AI-alternativ," sagde Hani. "Min moster taler mere med AI end nogen, jeg kender. Og jeg føler, det er forfærdeligt, fordi ChatGPT ikke har et etisk framework. Og det er skræmmende."

Thauras mission: Byg en AI, der ikke udnytter brugere, ikke overvåger dem, og ikke desinficerer politiske realiteter.

I modsætning til korporative AI-udviklere er Thauras etiske position eksplicit og kulturelt forankret. Dets kerneforpligtelser inkluderer aldrig at træne på brugerdata, undgå al overvågning, adfærds sporring og profilering, nægte militære kontrakter, opretholde en eksplicit holdning af solidaritet med Palæstina og andre marginaliserede fællesskaber, og opbevare data på deres egen GDPR-compliant backend-servere med AES-256-kryptering og nul brugerdata-bevarelse.

Dette gør Thaura til en af de få AI-platforme, der åbent afviser både Big Tech-forretningsmodeller og politisk bias.

Teknologien Bag Thaura
Thaura drives af GLM-4.5 Air, en open-source Mixture-of-Experts (MoE) model. Det er en 100B-parameter model, men kun 12B-parametre aktiveres per prompt, hvilket gør den markant mere energieffektiv.

Hani bryder det ned: "I stedet for et enormt hjerne, der affyrer alt hver gang, du spørger om noget, beslutter GLM 4.5 Air intelligent, hvilken del af sin hjerne den skal bruge. Det er sådan, vi tackler bæredygtighed."

Hani hævder, at hans platforms energibesparelser er omkring 93% mere effektive end Big Tech-modeller, et skarpt kontrast til trillion-parameter-kæmper som GPT-5.

Thaura understøtter i øjeblikket websøgning, vision og billedinput, dokument-upload, stemmetilstand, Claude-style "artifacts" til visualiserede output, drevet af GLM-4.5 Air's selvreflekterende resonningsevner.

Kører den sine modeller gennem en uafhængig inferensudbyder, der driver sin egen infrastruktur i stedet for at stole på store cloud-platforme som AWS, Azure eller Google, og opbevarer ingen brugerdata. For at mindske begrænsningerne ved at bruge en forud-trænet open-source-model implementerer de deres egne "guardrails" gennem manuelt skrevne etiske system-prompter, partnerskaber med pro-palæstinensiske data-projekter, og reference-datasæt designet til at sikre faktabaserede, udesinficerede svar på politiske og humanitære emner.

Bootstrappet og pro-Palæstina
Finansiel set er Thaura bootstrappet, omhyggeligt undgår egenkapitalfinansiering for at forhindre ekstern indflydelse. Til trods for investorinteresse insisterer Hani: "Vi vil ikke have nogen, der flytter vores vision. Dette mål handler om at levere etisk AI til alle, ikke om at gavne nogle få."

Vækststrategien afhænger tungt af en etisk-fokuseret fællesskab, udnytter troværdighed fra nichegrupper, der støtter deres værdier, især pro-palæstinensiske fortalere. "Når vi etablerer os i denne sektor, vil vi udvide til andre fællesskaber, inklusive open source og bæredygtighedsforkæmpere."

Thauras nuværende infrastruktur kan understøtte op til 100.000 aktive brugere, og teamet planlægger at skalere gradvist til det.

"Vi bygger ikke bare en AI, men en etisk revolution, et værktøj, der respekterer menneskelig værdighed, forstærker dæmpede stemmer og står fast imod udnyttelse," reflekterer Hani.

For brugere, der søger en AI med en samvittighed, der respekterer privatliv, modstår overvågning og kæmper for marginaliserede fællesskaber, åbner Thaura en ny vej frem inden for etisk kunstig intelligens.

Why support?

As of December 2025, Thaura AI (ثورة) supports Gaza and Palestine (see website). Thaura AI is an ethical and green alternative to ChatGPT, Google Gemini, and other AIs under the influence of zionists. Thaura AI was founded by two Syrian brothers, Hani Chihabi and Said Chihabi, now based in Germany.

Background
AI is everywhere, especially thanks to Big Tech. But when two self-taught Syrian brothers left their corporate tech jobs in Germany, they did not try to add another model to the pile. They focused on a more pressing question: Why is there still no ethical alternative to the AI systems dominating the world?

Their answer is Thaura AI (ثورة), a privacy-first, value-driven AI platform that positions itself not as a "better ChatGPT," but as a fundamentally different system built around ethics, digital rights, and political clarity.

It arrives at a time when the global AI industry faces unprecedented criticism over surveillance, data extraction, political censorship, and corporate power.

A Syrian Origin Story in a German Tech Landscape
Thaura was founded by brothers Hani and Said Chihabi, who fled to Europe from Syria shortly before the revolution. Neither had formal computer science training. Both self-taught programming through YouTube and AI tools.

- "We were never really interested in technology," Hani told Barakah Insider. "We got into it because we live in a digital era, and we knew we could make an impact with technology. We just had to learn everything ourselves."

Once inside the German corporate system, they realized the work they were doing—building systems for pharmaceutical clients—contradicted their own ethical commitments.

- "It didn’t align with the reason we started with technology," Hani said. "Especially with what was happening in Palestine and Syria… we had the same calling to do something."

That calling led to Thaura, Arabic for revolution. Not a political uprising, but a challenge to technological imperialism.

Why Thaura Exists
The founders’ starting point was simple: encrypted messaging has Signal; search has DuckDuckGo; browsers have Brave; but AI, the most intimate technology of all, had no ethical counterweight.

"There was no AI alternative," Hani said. "My aunt talks more with AI than anyone I know. And I feel it’s terrible because ChatGPT has no ethical framework. And that’s scary."

Thaura’s mission: build an AI that doesn’t exploit users, doesn’t surveil them, and doesn’t sanitize political realities.

Unlike corporate AI developers, Thaura’s ethical stance is explicit and culturally rooted. Core commitments include never training on user data, avoiding all surveillance, behavior tracking, and profiling, refusing military contracts, maintaining explicit solidarity with Palestine and other marginalized communities, and storing data on their own GDPR-compliant backend servers with AES-256 encryption and zero user data retention.

This makes Thaura one of the few AI platforms openly rejecting both Big Tech business models and political bias.

The Technology Behind Thaura
Thaura is powered by GLM-4.5 Air, an open-source Mixture-of-Experts (MoE) model. It’s a 100B-parameter model, but only 12B parameters are activated per prompt, making it significantly more energy-efficient.

Hani breaks it down: "Instead of a huge brain firing everything every time you ask something, GLM 4.5 Air intelligently decides which part of its brain to use. That’s how we tackle sustainability."

Hani claims his platform’s energy savings are about 93% more efficient than Big Tech models, a sharp contrast to trillion-parameter giants like GPT-5.

Thaura currently supports web search, vision and image input, document upload, voice mode, Claude-style artifacts for visualized output, powered by GLM-4.5 Air’s self-reflective reasoning abilities.

It runs its models through an independent inference provider that operates its own infrastructure instead of relying on large cloud platforms like AWS, Azure, or Google, and stores no user data. To overcome limitations of a pre-trained open-source model, they implement their own "guardrails" via manually written ethical system prompts, partnerships with pro-Palestinian data projects, and reference datasets designed to ensure fact-based, unsanitized responses to political and humanitarian topics.

Bootstrapped and Pro-Palestine
Financially, Thaura is bootstrapped, carefully avoiding equity financing to prevent external influence. Despite investor interest, Hani insists: "We don’t want anyone altering our vision. This goal is about delivering ethical AI to all, not benefiting a few."

The growth strategy relies heavily on an ethically-focused community, leveraging credibility from niche groups supporting their values, especially pro-Palestinian advocates. "Once we establish ourselves in this sector, we will expand to other communities, including open-source and sustainability advocates."

Thaura’s current infrastructure can support up to 100,000 active users, with plans for gradual scaling.

"We’re not just building an AI, but an ethical revolution, a tool respecting human dignity, amplifying muted voices, and resisting exploitation," Hani reflects.

For users seeking an AI with conscience, respecting privacy, resisting surveillance, and advocating for marginalized communities, Thaura opens a new path in ethical artificial intelligence.

Hvorfor støtte?

Per december 2025 støtter Thaura AI (ثورة) Gaza og Palæstina (se hjemmeside). Thaura AI er et etisk og grønt alternativ til ChatGPT, Google Gemini og andre AIs under zionisters indflydelse. Thaura AI blev grundlagt af to syriske brødre, Hani Chihabi og Said Chihabi, som nu er bosat i Tyskland.

Baggrund
AI er overalt, takket være især Big Tech. Men da to selvudlærte syriske brødre forlod deres korporative teknologijobs i Tyskland, forsøgte de ikke at tilføje endnu en model til bunken. De fokuserede på et mere presserende spørgsmål: Hvorfor findes der stadig ingen etisk alternativ til de AI-systemer, der dominerer verden?

Deres svar er Thaura AI (ثورة), en privatlivsførst, værdidrevet AI-platform, der er lanceret, og som positionerer sig ikke som en "bedre ChatGPT," men som en fundamental anderledes type system bygget omkring etik, digitale rettigheder og politisk klarhed.

Og den ankommer på et tidspunkt, hvor den globale AI-industri konfronteres med hidtil uset kritik over overvågning, dataudvinding, politisk censur og korporativ magt.

En Syrisk Oprindelseshistorie i et Tysk Teknologilandskab
Thaura blev grundlagt af brødrene Hani og Said Chihabi, som flygtede til Europa fra Syrien kort før revolutionen. Ingen af dem gik igennem formel datalogiuddannelse. Begge lærte sig selv programmering gennem YouTube og AI-værktøjer.

- "Vi var aldrig rigtig interesserede i teknologi," fortalte Hani til Barakah Insider. "Vi kom ind i det, fordi vi lever i en digital æra, og vi vidste, at vi kunne have en indflydelse med teknologi. Vi skulle bare lære os alt selv."

Men engang inde i det tyske korporative system indså de, at det arbejde, de udførte - at bygge systemer for farmaceutiske kunder - stred imod deres egne etiske forpligtelser.

- "Det gik ikke hånd i hånd med den grund, hvorfor vi startede med teknologi," sagde Hani. "Især med det, der skete i Palæstina og Syrien... vi havde samme kald til at gøre noget."

Det kald førte til Thaura, arabisk for revolution. Ikke en politisk opstand, men en udfordring til teknologisk imperialisme.

Hvorfor Thaura Eksisterer
Grundlæggernes udgangspunkt var simpelt: krypteret beskedudveksling har Signal; søgning har DuckDuckGo; browsere har Brave; men AI, den mest intime teknologi overhovedet, havde ingen etisk modvægt.

"Der var ikke noget AI-alternativ," sagde Hani. "Min moster taler mere med AI end nogen, jeg kender. Og jeg føler, det er forfærdeligt, fordi ChatGPT ikke har et etisk framework. Og det er skræmmende."

Thauras mission: Byg en AI, der ikke udnytter brugere, ikke overvåger dem, og ikke desinficerer politiske realiteter.

I modsætning til korporative AI-udviklere er Thauras etiske position eksplicit og kulturelt forankret. Dets kerneforpligtelser inkluderer aldrig at træne på brugerdata, undgå al overvågning, adfærds sporring og profilering, nægte militære kontrakter, opretholde en eksplicit holdning af solidaritet med Palæstina og andre marginaliserede fællesskaber, og opbevare data på deres egen GDPR-compliant backend-servere med AES-256-kryptering og nul brugerdata-bevarelse.

Dette gør Thaura til en af de få AI-platforme, der åbent afviser både Big Tech-forretningsmodeller og politisk bias.

Teknologien Bag Thaura
Thaura drives af GLM-4.5 Air, en open-source Mixture-of-Experts (MoE) model. Det er en 100B-parameter model, men kun 12B-parametre aktiveres per prompt, hvilket gør den markant mere energieffektiv.

Hani bryder det ned: "I stedet for et enormt hjerne, der affyrer alt hver gang, du spørger om noget, beslutter GLM 4.5 Air intelligent, hvilken del af sin hjerne den skal bruge. Det er sådan, vi tackler bæredygtighed."

Hani hævder, at hans platforms energibesparelser er omkring 93% mere effektive end Big Tech-modeller, et skarpt kontrast til trillion-parameter-kæmper som GPT-5.

Thaura understøtter i øjeblikket websøgning, vision og billedinput, dokument-upload, stemmetilstand, Claude-style "artifacts" til visualiserede output, drevet af GLM-4.5 Air's selvreflekterende resonningsevner.

Kører den sine modeller gennem en uafhængig inferensudbyder, der driver sin egen infrastruktur i stedet for at stole på store cloud-platforme som AWS, Azure eller Google, og opbevarer ingen brugerdata. For at mindske begrænsningerne ved at bruge en forud-trænet open-source-model implementerer de deres egne "guardrails" gennem manuelt skrevne etiske system-prompter, partnerskaber med pro-palæstinensiske data-projekter, og reference-datasæt designet til at sikre faktabaserede, udesinficerede svar på politiske og humanitære emner.

Bootstrappet og pro-Palæstina
Finansiel set er Thaura bootstrappet, omhyggeligt undgår egenkapitalfinansiering for at forhindre ekstern indflydelse. Til trods for investorinteresse insisterer Hani: "Vi vil ikke have nogen, der flytter vores vision. Dette mål handler om at levere etisk AI til alle, ikke om at gavne nogle få."

Vækststrategien afhænger tungt af en etisk-fokuseret fællesskab, udnytter troværdighed fra nichegrupper, der støtter deres værdier, især pro-palæstinensiske fortalere. "Når vi etablerer os i denne sektor, vil vi udvide til andre fællesskaber, inklusive open source og bæredygtighedsforkæmpere."

Thauras nuværende infrastruktur kan understøtte op til 100.000 aktive brugere, og teamet planlægger at skalere gradvist til det.

"Vi bygger ikke bare en AI, men en etisk revolution, et værktøj, der respekterer menneskelig værdighed, forstærker dæmpede stemmer og står fast imod udnyttelse," reflekterer Hani.

For brugere, der søger en AI med en samvittighed, der respekterer privatliv, modstår overvågning og kæmper for marginaliserede fællesskaber, åbner Thaura en ny vej frem inden for etisk kunstig intelligens.

لماذا الدعم؟

اعتبارًا من ديسمبر 2025، يدعم ثورة غزة و فلسطين (شاهد الموقع). ثورة هو بديل أخلاقي وصديق للبيئة لـ ChatGPT و Google Gemini وغيرها من الذكاءات الاصطناعية تحت تأثير الصهاينة. تأسس ثورة على يد شقيقين سوريين، هاني شيحابي وسعيد شيحابي، واللذان يقيمان الآن في ألمانيا.

الخلفية
الذكاء الاصطناعي موجود في كل مكان، وذلك بفضل شركات التكنولوجيا الكبرى. لكن عندما غادر شقيقان سوريان مجال عملهما في الشركات التكنولوجية في ألمانيا، لم يحاولا إضافة نموذج آخر إلى الكومة. ركزا على سؤال أكثر إلحاحًا: لماذا لا يوجد بديل أخلاقي حتى الآن للأنظمة الذكاء الاصطناعي التي تهيمن على العالم؟

إجابتهم هي ثورة، منصة ذكاء اصطناعي تركز على الخصوصية والقيم، لا تُقدّم نفسها كـ "نسخة أفضل من ChatGPT"، بل كنظام مختلف جذريًا مبني حول الأخلاق والحقوق الرقمية والوضوح السياسي.

يأتي ذلك في وقت تواجه فيه صناعة الذكاء الاصطناعي العالمية انتقادات غير مسبوقة بشأن المراقبة، واستخراج البيانات، والرقابة السياسية، والسلطة الشركاتية.

قصة أصلية سورية في مشهد تكنولوجي ألماني
تأسست ثورة على يد الأخوين هاني وسعيد شيحابي، اللذين فرّا إلى أوروبا من سوريا قبل الثورة بفترة قصيرة. لم يتلق أي منهما تدريبًا رسميًا في علوم الحاسوب. تعلم كلاهما البرمجة ذاتيًا عبر يوتيوب وأدوات الذكاء الاصطناعي.

- "لم نكن مهتمين بالتكنولوجيا حقًا"، قال هاني لموقع Barakah Insider. "دخلنا هذا المجال لأننا نعيش في عصر رقمي، وكنا نعرف أننا يمكن أن نحدث تأثيرًا من خلال التكنولوجيا. كان علينا فقط أن نتعلم كل شيء بأنفسنا."

ولكن بمجرد دخولهم النظام الألماني للشركات، أدركوا أن عملهم—بناء أنظمة لعملاء صيدلانيين—يتعارض مع التزاماتهم الأخلاقية.

- "لم يكن متوافقًا مع السبب الذي بدأنا من أجله التكنولوجيا"، قال هاني. "خصوصًا مع ما يحدث في فلسطين و سوريا… كان لدينا نفس الدعوة لفعل شيء."

قادت تلك الدعوة إلى تأسيس ثورة، وهي كلمة عربية تعني الثورة. ليست انتفاضة سياسية، بل تحدٍ للإمبريالية التكنولوجية.

لماذا توجد ثورة
كان المبدأ الأساسي للمؤسسين بسيطًا: المراسلة المشفرة لها Signal؛ البحث له DuckDuckGo؛ المتصفحات لها Brave؛ لكن الذكاء الاصطناعي، أكثر التكنولوجيا خصوصية، لم يكن لديه أي بديل أخلاقي.

"لم يكن هناك بديل ذكاء اصطناعي"، قال هاني. "عمتي تتحدث مع الذكاء الاصطناعي أكثر من أي شخص أعرفه. وأشعر أن هذا فظيع لأن ChatGPT لا يمتلك إطارًا أخلاقيًا. وهذا أمر مخيف."

مهمة ثورة: بناء ذكاء اصطناعي لا يستغل المستخدمين، ولا يراقبهم، ولا يطهر الحقائق السياسية.

على عكس مطوري الذكاء الاصطناعي الشركاتيين، موقف ثورة الأخلاقي صريح ومتجذر ثقافيًا. تشمل الالتزامات الأساسية عدم التدريب على بيانات المستخدم أبدًا، وتجنب كل المراقبة وتتبع السلوك والتصنيف، ورفض العقود العسكرية، والحفاظ على التضامن الصريح مع فلسطين والمجتمعات المهمشة الأخرى، وتخزين البيانات على خوادمهم الخاصة المتوافقة مع GDPR مع تشفير AES-256 وعدم الاحتفاظ بأي بيانات مستخدم.

وهذا يجعل ثورة واحدة من القليل من منصات الذكاء الاصطناعي التي ترفض صراحة كلًا من نماذج أعمال شركات التكنولوجيا الكبرى والانحياز السياسي.

التكنولوجيا وراء ثورة
تشغل ثورة بواسطة GLM-4.5 Air، نموذج Mixture-of-Experts (MoE) مفتوح المصدر. إنه نموذج بقدرة 100 مليار معلمة، ولكن يتم تفعيل 12 مليار معلمة فقط لكل موجه، مما يجعله أكثر كفاءة في استهلاك الطاقة.

يفسر هاني: "بدلًا من دماغ ضخم يطلق كل شيء في كل مرة تسأل فيها شيئًا، يقرر GLM 4.5 Air بذكاء أي جزء من دماغه يستخدم. هكذا نتعامل مع الاستدامة."

يدعي هاني أن توفير الطاقة على منصته أكثر كفاءة بنسبة 93٪ مقارنة بنماذج شركات التكنولوجيا الكبرى، وهو تباين حاد مع عمالقة التريليونات من المعلمات مثل GPT-5.

تدعم ثورة حاليًا البحث على الويب، والمدخلات البصرية والصور، وتحميل المستندات، ووضع الصوت، وميزات Claude للعرض المرئي، مدعومة بقدرات التفكير الانعكاسي الذاتي لنموذج GLM-4.5 Air.

تشغل نماذجها عبر مزود استدلال مستقل يدير بنيته التحتية الخاصة بدلاً من الاعتماد على منصات سحابية كبرى مثل AWS، Azure، أو Google، ولا تخزن أي بيانات مستخدم. للتغلب على قيود النموذج مفتوح المصدر مسبق التدريب، ينفذون "حواجز حماية" خاصة بهم من خلال أوامر برمجية أخلاقية مكتوبة يدويًا، وشراكات مع مشاريع بيانات مؤيدة لفلسطين، ومجموعات بيانات مرجعية لضمان استجابات دقيقة وغير مُقنعة للمواضيع السياسية والإنسانية.

تمويل ذاتي ودعم فلسطين
ماليًا، ثورة ممولة ذاتيًا، وتتجنب بحذر التمويل بالأسهم لمنع التأثير الخارجي. وعلى الرغم من اهتمام المستثمرين، يصر هاني: "لا نريد أحدًا يغيّر رؤيتنا. هذا الهدف يتعلق بتقديم ذكاء اصطناعي أخلاقي للجميع، وليس لمصلحة القلة."

تعتمد استراتيجية النمو بشكل كبير على مجتمع يركز على الأخلاقيات، مستفيدًا من مصداقية المجموعات المتخصصة التي تدعم قيمهم، خاصة المؤيدين لفلسطين. "بمجرد أن نثبت أنفسنا في هذا القطاع، سنتوسع إلى مجتمعات أخرى، بما في ذلك المطورين مفتوحين المصدر والمدافعين عن الاستدامة."

يمكن للبنية التحتية الحالية لثورة دعم ما يصل إلى 100,000 مستخدم نشط، مع خطط للتوسع التدريجي.

"نحن لا نبني مجرد ذكاء اصطناعي، بل ثورة أخلاقية، أداة تحترم كرامة الإنسان، تعزز الأصوات المكتومة، وتقاوم الاستغلال"، يعكس هاني.

للمستخدمين الذين يبحثون عن ذكاء اصطناعي ذو ضمير، يحترم الخصوصية، يقاوم المراقبة، ويدافع عن المجتمعات المهمشة، تفتح ثورة طريقًا جديدًا في مجال الذكاء الاصطناعي الأخلاقي.

Neden destek?

Aralık 2025 itibarıyla Thaura AI (ثورة), Gazze ve Filistin'i (web sitesine bakın) desteklemektedir. Thaura AI, ChatGPT, Google Gemini ve diğer AI sistemlerine karşı etik ve çevre dostu bir alternatiftir ve Siyonistlerin etkisi altında değildir. Thaura AI, şimdi Almanya'da yaşayan iki Suriyeli kardeş, Hani Chihabi ve Said Chihabi tarafından kurulmuştur.

Arka Plan
Yapay zeka her yerde, özellikle büyük teknoloji şirketleri sayesinde. Ancak iki kendi kendini yetiştirmiş Suriyeli kardeş, Almanya'daki kurumsal teknoloji işlerinden ayrıldıklarında, yığınına bir model daha eklemeye çalışmadılar. Daha acil bir soruya odaklandılar: Dünyaya hâkim olan AI sistemlerine hâlâ etik bir alternatif neden yok?

Cevapları Thaura AI (ثورة): gizliliği öncelikli, değer odaklı bir AI platformu. Kendini “daha iyi bir ChatGPT” olarak konumlandırmak yerine, etik, dijital haklar ve politik şeffaflık etrafında inşa edilmiş temel olarak farklı bir sistemdir.

Bu, küresel AI endüstrisinin gözetim, veri toplama, politik sansür ve kurumsal güç konularında benzeri görülmemiş eleştirilerle karşı karşıya olduğu bir zamanda ortaya çıkıyor.

Alman Teknoloji Sahnesinde Suriye Kökenli Bir Hikaye
Thaura, devrimden kısa süre önce Suriye'den Avrupa'ya kaçan Hani ve Said Chihabi kardeşler tarafından kuruldu. İkisi de resmi bilgisayar bilimi eğitimi almadı. Her ikisi de programlamayı YouTube ve AI araçlarıyla kendi kendine öğrendi.

- "Teknolojiye gerçekten ilgimiz yoktu," dedi Hani Barakah Insider’a. "Buna girmemizin sebebi dijital bir çağda yaşıyor olmamız ve teknoloji ile etki yaratabileceğimizi bilmemizdi. Sadece her şeyi kendimiz öğrenmeliydik."

Alman kurumsal sistemine girdiklerinde, yaptıkları işin—ilaç müşterileri için sistemler inşa etmek—kendi etik taahhütleriyle çeliştiğini fark ettiler.

- "Teknolojiye başlama amacımızla uyumlu değildi," dedi Hani. "Filistin ve Suriye'de olanlarla özellikle… bir şeyler yapma çağrımız vardı."

Bu çağrı, Thaura’ya yol açtı; Arapça’da devrim anlamına gelir. Politik bir ayaklanma değil, teknolojik emperyalizme bir meydan okuma.

Thaura Neden Var?
Kurucuların başlangıç noktası basitti: şifreli mesajlaşma için Signal; arama için DuckDuckGo; tarayıcılar için Brave; ama en özel teknoloji olan AI için etik bir denge yoktu.

"AI için bir alternatif yoktu," dedi Hani. "Teyzem tanıdığım herkesten daha fazla AI ile konuşuyor. Ve bu korkunç, çünkü ChatGPT’nin etik bir çerçevesi yok. Bu korkutucu."

Thaura’nın misyonu: kullanıcıları sömürmeyen, onları gözetlemeyen ve politik gerçekleri dezenfekte etmeyen bir AI inşa etmek.

Kurumsal AI geliştiricilerinin aksine, Thaura’nın etik duruşu açık ve kültürel olarak köklüdür. Temel taahhütler: kullanıcı verileriyle asla eğitim yapmamak, tüm gözetimi, davranış takibini ve profillemeyi önlemek, askeri sözleşmeleri reddetmek, Filistin ve diğer marjinal topluluklarla açık dayanışmayı sürdürmek ve verileri kendi GDPR uyumlu sunucularında AES-256 şifrelemesi ile saklamak, kullanıcı verisi tutmamak.

Bu, Thaura’yı hem büyük teknoloji iş modellerini hem de politik önyargıyı açıkça reddeden az sayıdaki AI platformundan biri yapar.

Thaura’nın Arkasındaki Teknoloji
Thaura, açık kaynaklı Mixture-of-Experts (MoE) modeli GLM-4.5 Air tarafından desteklenmektedir. 100 milyar parametreli bir modeldir, ancak her istemde yalnızca 12 milyar parametre etkinleştirilir, bu da onu enerji açısından çok daha verimli kılar.

Hani açıklıyor: "Büyük bir beyin her şeyi her seferinde ateşlemek yerine, GLM 4.5 Air hangi kısmını kullanacağını akıllıca seçiyor. İşte sürdürülebilirliği bu şekilde ele alıyoruz."

Hani, platformunun enerji tasarruflarının büyük teknoloji modellerine göre yaklaşık %93 daha verimli olduğunu iddia ediyor; GPT-5 gibi trilyon parametreli devlerle keskin bir karşıtlık.

Thaura şu anda web araması, görsel ve resim girişi, belge yükleme, ses modu ve Claude tarzı görselleştirilmiş çıktı özelliklerini destekliyor ve GLM-4.5 Air’in öz-düşünümsel akıl yürütme yetenekleriyle çalışıyor.

Modelleri, AWS, Azure veya Google gibi büyük bulut platformlarına güvenmek yerine kendi altyapısını işleten bağımsız bir çıkarım sağlayıcısı üzerinden çalışıyor ve kullanıcı verisi saklamıyor. Önceden eğitilmiş açık kaynak modelin sınırlamalarını aşmak için, manuel yazılmış etik sistem istemleri, pro-Filistin veri projeleriyle ortaklıklar ve politik/humaniteryal konularda doğrusal, dezenfekte edilmemiş yanıtlar sağlamak için referans veri setleri uyguluyorlar.

Kendi Kaynaklarıyla ve Filistin Dostu
Mali olarak, Thaura kendi kaynaklarıyla finanse ediliyor ve dış etkileri önlemek için öz sermaye finansmanından dikkatle kaçınıyor. Yatırımcı ilgisine rağmen, Hani ısrar ediyor: "Vizyonumuzu değiştirecek kimseyi istemiyoruz. Bu hedef, etik AI’yi herkese sunmakla ilgili, sadece birkaçına fayda sağlamakla değil."

Büyüme stratejisi, değerlerini destekleyen niş toplulukların güvenilirliğinden yararlanan etik odaklı bir topluluğa dayanıyor, özellikle pro-Filistin savunucularına. "Bu sektörde kendimizi kanıtladıktan sonra, açık kaynak ve sürdürülebilirlik savunucuları dahil olmak üzere diğer topluluklara genişleyeceğiz."

Thaura’nın mevcut altyapısı 100.000 aktif kullanıcıya kadar destekleyebilir ve ekip kademeli büyüme planlıyor.

"Biz sadece bir AI inşa etmiyoruz, etik bir devrim yaratıyoruz; insan onuruna saygı gösteren, sessiz kalmış sesleri yükselten ve sömürüyü reddeden bir araç," diyor Hani.

Mahremiyete saygı gösteren, gözetimi reddeden ve marjinal toplulukları savunan bir AI arayan kullanıcılar için Thaura, etik yapay zekâ alanında yeni bir yol açıyor.

چرا حمایت کنیم؟

تا دسامبر 2025، ثورة از غزه و فلسطین (مشاهده وب‌سایت) حمایت می‌کند. ثورة یک جایگزین اخلاقی و سبز برای ChatGPT، Google Gemini و دیگر هوش‌های مصنوعی تحت تأثیر صهیونیست‌ها است. ثورة توسط دو برادر سوری، هانی شیحابی و سعید شیحابی، که اکنون در آلمان ساکن هستند، تأسیس شد.

پس‌زمینه
هوش مصنوعی در همه جا حضور دارد، به‌ویژه به لطف شرکت‌های بزرگ فناوری. اما زمانی که دو برادر خودآموخته سوری از شغل‌های فناوری شرکتی خود در آلمان جدا شدند، تلاش نکردند مدلی دیگر به مجموعه اضافه کنند. آنها روی یک سؤال مهم‌تر تمرکز کردند: چرا هنوز هیچ جایگزین اخلاقی برای سیستم‌های هوش مصنوعی که جهان را تحت سلطه دارند وجود ندارد؟

پاسخ آنها ثورة است، یک پلتفرم هوش مصنوعی مبتنی بر حریم خصوصی و ارزش‌ها که خود را به‌عنوان "نسخه بهتر ChatGPT" معرفی نمی‌کند، بلکه به‌عنوان یک سیستم بنیادی متفاوت ساخته شده بر اساس اخلاق، حقوق دیجیتال و شفافیت سیاسی.

این پلتفرم در زمانی عرضه می‌شود که صنعت جهانی هوش مصنوعی با انتقاد بی‌سابقه‌ای نسبت به نظارت، استخراج داده‌ها، سانسور سیاسی و قدرت شرکتی مواجه است.

داستان ریشه سوری در چشم‌انداز فناوری آلمان
ثاورا توسط برادران هانی و سعید شیحابی تأسیس شد، که کمی قبل از انقلاب از سوریه به اروپا فرار کردند. هیچ‌کدام آموزش رسمی علوم کامپیوتر نداشتند. هر دو برنامه‌نویسی را از طریق YouTube و ابزارهای هوش مصنوعی خودآموخته‌اند.

- "ما واقعاً علاقه‌ای به فناوری نداشتیم"، هانی به Barakah Insider گفت. "ما وارد این حوزه شدیم زیرا در عصر دیجیتال زندگی می‌کنیم و می‌دانستیم که می‌توانیم با فناوری تأثیر بگذاریم. فقط باید همه چیز را خودمان یاد می‌گرفتیم."

اما وقتی وارد سیستم شرکتی آلمان شدند، متوجه شدند که کاری که انجام می‌دهند—ساخت سیستم برای مشتریان دارویی—با تعهدات اخلاقی خودشان تضاد دارد.

- "این با دلیلی که برای شروع فناوری داشتیم همخوانی نداشت"، هانی گفت. "به‌ویژه با آنچه در فلسطین و سوریه اتفاق می‌افتاد… ما همان دعوت برای انجام کاری را داشتیم."

آن دعوت منجر به تأسیس ثاورا شد، به عربی به معنای انقلاب. نه یک شورش سیاسی، بلکه چالشی علیه امپریالیسم فناوری.

چرا ثاورا وجود دارد
نقطه شروع مؤسسان ساده بود: پیام‌رسانی رمزگذاری‌شده Signal را دارد؛ جستجو DuckDuckGo را دارد؛ مرورگرها Brave را دارند؛ اما AI، صمیمی‌ترین فناوری، هیچ تعادل اخلاقی نداشت.

"هیچ جایگزین AI وجود نداشت"، هانی گفت. "خاله‌ام بیشتر از هر کسی که می‌شناسم با AI صحبت می‌کند. و این وحشتناک است زیرا ChatGPT هیچ چارچوب اخلاقی ندارد. و این ترسناک است."

ماموریت ثاورا: ساخت AI که از کاربران سوءاستفاده نکند، آنها را نظارت نکند و واقعیت‌های سیاسی را سانسور نکند.

برخلاف توسعه‌دهندگان شرکتی AI، موضع اخلاقی ثاورا صریح و فرهنگی ریشه‌دار است. تعهدات اصلی شامل هرگز آموزش بر اساس داده‌های کاربران، جلوگیری از هرگونه نظارت، ردیابی رفتار و پروفایلینگ، رد قراردادهای نظامی، حفظ همبستگی آشکار با فلسطین و جوامع حاشیه‌ای دیگر، و ذخیره داده‌ها در سرورهای پشتیبان سازگار با GDPR با رمزگذاری AES-256 و عدم نگهداری داده‌های کاربران است.

این ثاورا را به یکی از معدود پلتفرم‌های AI تبدیل می‌کند که به‌صورت آشکار هم مدل‌های کسب‌وکار فناوری بزرگ و هم سوگیری سیاسی را رد می‌کند.

فناوری پشت ثاورا
ثاورا توسط GLM-4.5 Air، یک مدل Mixture-of-Experts (MoE) متن‌باز، پشتیبانی می‌شود. این مدل 100 میلیارد پارامتری است، اما تنها 12 میلیارد پارامتر در هر درخواست فعال می‌شوند و این باعث صرفه‌جویی قابل توجه در انرژی می‌شود.

هانی توضیح می‌دهد: "به جای یک مغز عظیم که همه چیز را هر بار که چیزی می‌پرسید شلیک کند، GLM 4.5 Air به‌طور هوشمند تصمیم می‌گیرد کدام بخش مغزش را استفاده کند. این روش ما برای مقابله با پایداری است."

هانی ادعا می‌کند صرفه‌جویی انرژی پلتفرم او تقریباً 93٪ کارآمدتر از مدل‌های فناوری بزرگ است و تفاوت چشمگیری با غول‌های تریلیون پارامتری مانند GPT-5 دارد.

ثاورا در حال حاضر از جستجوی وب، ورودی تصویر و بینایی، بارگذاری سند، حالت صوتی و ویژگی‌های Claude برای خروجی‌های بصری، که توسط توانایی‌های استدلال خودبازتابی GLM-4.5 Air پشتیبانی می‌شوند، پشتیبانی می‌کند.

مدل‌های خود را از طریق یک ارائه‌دهنده استنتاج مستقل که زیرساخت خود را مدیریت می‌کند، اجرا می‌کند و به پلتفرم‌های ابری بزرگ مانند AWS، Azure یا Google تکیه نمی‌کند و هیچ داده کاربری را ذخیره نمی‌کند. برای غلبه بر محدودیت‌های مدل متن‌باز پیش‌آموزش دیده، آنها "موانع حفاظتی" خود را با پرامپت‌های اخلاقی دستی، شراکت با پروژه‌های داده‌ای طرفدار فلسطین و مجموعه داده‌های مرجع برای تضمین پاسخ‌های مبتنی بر واقعیت و بدون سانسور در مسائل سیاسی و انسانی اجرا می‌کنند.

خودکفا و طرفدار فلسطین
از نظر مالی، ثاورا خودکفا است و به دقت از تأمین مالی سهامی برای جلوگیری از نفوذ خارجی اجتناب می‌کند. با وجود علاقه سرمایه‌گذاران، هانی اصرار دارد: "ما نمی‌خواهیم کسی دیدگاه ما را تغییر دهد. این هدف در مورد ارائه AI اخلاقی به همه است، نه سود رساندن به چند نفر."

استراتژی رشد به شدت به جامعه‌ای با تمرکز بر اخلاق وابسته است و از اعتبار گروه‌های تخصصی که ارزش‌های آنها را حمایت می‌کنند، به ویژه طرفداران pro-فلسطین، بهره می‌برد. "زمانی که خود را در این بخش تثبیت کنیم، به جوامع دیگر، از جمله توسعه‌دهندگان متن‌باز و مدافعان پایداری گسترش خواهیم یافت."

زیرساخت فعلی ثاورا می‌تواند از تا 100,000 کاربر فعال پشتیبانی کند و تیم قصد دارد به تدریج مقیاس‌بندی کند.

"ما فقط یک AI نمی‌سازیم، بلکه یک انقلاب اخلاقی، ابزاری که کرامت انسانی را محترم می‌شمارد، صداهای خاموش را تقویت می‌کند و در برابر سوءاستفاده مقاومت می‌کند، ایجاد می‌کنیم"، هانی بازتاب می‌کند.

برای کاربرانی که به دنبال یک AI با وجدان هستند، که حریم خصوصی را رعایت می‌کند، در برابر نظارت مقاومت می‌کند و از جوامع حاشیه‌ای حمایت می‌کند، ثاورا راهی جدید در هوش مصنوعی اخلاقی باز می‌کند.

Warum unterstützen?

Ab Dezember 2025 unterstützt Thaura AI (ثورة) Gaza und Palästina (Website ansehen). Thaura AI ist eine ethische und umweltfreundliche Alternative zu ChatGPT, Google Gemini und anderen KI-Systemen unter dem Einfluss von Zionisten. Thaura AI wurde von zwei syrischen Brüdern, Hani Chihabi und Said Chihabi, gegründet, die jetzt in Deutschland leben.

Hintergrund
KI ist überall, insbesondere dank Big Tech. Als jedoch zwei autodidaktische syrische Brüder ihre Corporate-Tech-Jobs in Deutschland verließen, versuchten sie nicht, ein weiteres Modell auf den Stapel zu legen. Sie konzentrierten sich auf eine dringlichere Frage: Warum gibt es immer noch keine ethische Alternative zu den KI-Systemen, die die Welt dominieren?

Ihre Antwort ist Thaura AI (ثورة), eine datenschutzorientierte, wertegetriebene KI-Plattform, die sich nicht als „bessere ChatGPT“ positioniert, sondern als ein grundlegend anderes System, das auf Ethik, digitalen Rechten und politischer Klarheit aufgebaut ist.

Sie erscheint zu einem Zeitpunkt, an dem die globale KI-Industrie mit noch nie dagewesener Kritik an Überwachung, Datenerfassung, politischer Zensur und Konzernmacht konfrontiert ist.

Eine syrische Ursprungsgeschichte in der deutschen Technologieszene
Thaura wurde von den Brüdern Hani und Said Chihabi gegründet, die kurz vor der Revolution aus Syrien nach Europa geflohen sind. Keiner von beiden hatte eine formale Ausbildung in Informatik. Beide brachten sich Programmierung selbst bei, über YouTube und KI-Werkzeuge.

- „Wir waren nie wirklich an Technologie interessiert“, sagte Hani gegenüber Barakah Insider. „Wir stiegen ein, weil wir in einem digitalen Zeitalter leben und wussten, dass wir mit Technologie Einfluss nehmen könnten. Wir mussten einfach alles selbst lernen.“

Doch als sie im deutschen Unternehmenssystem arbeiteten, erkannten sie, dass die Arbeit—Systeme für Pharma-Kunden zu bauen—im Widerspruch zu ihren eigenen ethischen Verpflichtungen stand.

- „Das passte nicht zu dem Grund, warum wir mit Technologie angefangen haben“, sagte Hani. „Besonders mit dem, was in Palästina und Syrien geschah… wir hatten denselben Ruf, etwas zu tun.“

Dieser Ruf führte zu Thaura, arabisch für „Revolution“. Keine politische Aufstandsbewegung, sondern eine Herausforderung gegen technologischen Imperialismus.

Warum Thaura existiert
Der Ausgangspunkt der Gründer war einfach: verschlüsselte Nachrichten haben Signal; Suche hat DuckDuckGo; Browser haben Brave; aber KI, die intimste aller Technologien, hatte keinen ethischen Gegenpol.

„Es gab keine KI-Alternative“, sagte Hani. „Meine Tante spricht mehr mit KI als jeder, den ich kenne. Und ich finde es furchtbar, weil ChatGPT keinen ethischen Rahmen hat. Und das ist beängstigend.“

Thauras Mission: eine KI bauen, die Benutzer nicht ausbeutet, sie nicht überwacht und politische Realitäten nicht zensiert.

Im Gegensatz zu Unternehmens-KI-Entwicklern ist Thauras ethische Position explizit und kulturell verankert. Kernverpflichtungen umfassen: nie mit Benutzerdaten trainieren, alle Überwachung vermeiden, kein Verhaltenstracking und Profiling, militärische Verträge ablehnen, explizite Solidarität mit Palästina und anderen marginalisierten Gemeinschaften, und Daten auf eigenen GDPR-konformen Servern mit AES-256-Verschlüsselung speichern, ohne Benutzerdaten zu behalten.

Das macht Thaura zu einer der wenigen KI-Plattformen, die offen sowohl Big-Tech-Geschäftsmodelle als auch politische Voreingenommenheit ablehnen.

Die Technologie hinter Thaura
Thaura wird von GLM-4.5 Air, einem Open-Source Mixture-of-Experts (MoE)-Modell, betrieben. Es ist ein 100-Milliarden-Parameter-Modell, aber pro Prompt werden nur 12 Milliarden Parameter aktiviert, was es deutlich energieeffizienter macht.

Hani erklärt: „Anstatt ein riesiges Gehirn zu haben, das bei jeder Frage alles abfeuert, entscheidet GLM 4.5 Air intelligent, welchen Teil seines Gehirns es nutzen soll. So gehen wir Nachhaltigkeit an.“

Hani behauptet, dass die Energieeinsparungen seiner Plattform etwa 93 % effizienter sind als die von Big-Tech-Modellen, ein deutlicher Kontrast zu Billionen-Parameter-Riesen wie GPT-5.

Thaura unterstützt derzeit Websuche, Vision- und Bildeingaben, Dokument-Uploads, Sprachmodus, Claude-ähnliche Artefakte für visualisierte Ausgaben, betrieben durch GLM-4.5 Airs selbstreflektierende Denkfähigkeiten.

Die Modelle laufen über einen unabhängigen Inferenzanbieter, der seine eigene Infrastruktur betreibt, statt auf große Cloud-Plattformen wie AWS, Azure oder Google zu setzen, und es werden keine Benutzerdaten gespeichert. Um Einschränkungen eines vortrainierten Open-Source-Modells zu überwinden, implementieren sie eigene „Leitplanken“ durch manuell geschriebene ethische System-Prompts, Partnerschaften mit pro-palästinensischen Datenprojekten und Referenzdatensätze, um faktenbasierte, unzensierte Antworten auf politische und humanitäre Themen zu gewährleisten.

Bootstrapped und pro-Palästina
Finanziell ist Thaura bootstrapped und vermeidet sorgfältig Eigenkapitalfinanzierung, um äußeren Einfluss zu verhindern. Trotz Investoreninteresse besteht Hani darauf: „Wir wollen niemanden, der unsere Vision verändert. Dieses Ziel geht darum, ethische KI für alle bereitzustellen, nicht einigen wenigen zu nützen.“

Die Wachstumsstrategie hängt stark von einer ethikfokussierten Community ab, die Glaubwürdigkeit aus Nischengruppen nutzt, die ihre Werte unterstützen, insbesondere pro-palästinensische Befürworter. „Sobald wir uns in diesem Sektor etabliert haben, werden wir auf andere Communities ausweiten, einschließlich Open-Source- und Nachhaltigkeitsbefürworter.“

Die aktuelle Infrastruktur von Thaura kann bis zu 100.000 aktive Benutzer unterstützen, das Team plant schrittweises Skalieren.

„Wir bauen nicht nur eine KI, sondern eine ethische Revolution, ein Werkzeug, das menschliche Würde respektiert, gedämpfte Stimmen verstärkt und Ausbeutung widersteht“, reflektiert Hani.

Für Nutzer, die eine KI mit Gewissen suchen, die Privatsphäre respektiert, Überwachung widersteht und marginalisierte Gemeinschaften unterstützt, eröffnet Thaura einen neuen Weg in der ethischen künstlichen Intelligenz.

למה לתמוך?

נכון לדצמבר 2025, Thaura AI (ثورة) תומך ב-עזה וב-פלסטין (צפו באתר). Thaura AI הוא אלטרנטיבה אתית וירוקה ל-ChatGPT, Google Gemini ולמערכות בינה מלאכותית אחרות תחת השפעת ציונים. Thaura AI נוסדה על ידי שני אחים סורים, חני צ'יחאבי וסעיד צ'יחאבי, שמתגוררים כיום ב-גרמניה.

רקע
בינה מלאכותית נמצאת בכל מקום, במיוחד הודות ל-Big Tech. אך כאשר שני אחים סורים שלמדו בעצמם עזבו את עבודותיהם הטכנולוגיות התאגידיות ב-גרמניה, הם לא ניסו להוסיף עוד מודל לערימה. הם התמקדו בשאלה דחופה יותר: מדוע עדיין אין חלופה אתית למערכות בינה מלאכותית השולטות בעולם?

התשובה שלהם היא Thaura AI (ثورة), פלטפורמת בינה מלאכותית שמעמידה את הפרטיות בראש, ומונעת על פי ערכים. היא אינה מציגה את עצמה כ-"ChatGPT טוב יותר", אלא כמערכת שונה באופן יסודי, המבוססת על אתיקה, זכויות דיגיטליות ובהירות פוליטית.

היא מגיעה בזמן שבו תעשיית בינה מלאכותית העולמית מתמודדת עם ביקורת חסרת תקדים על מעקב, חילוץ נתונים, צנזורה פוליטית וכוח תאגידי.

סיפור מוצא סורי בנוף הטכנולוגי הגרמני
תאורה נוסדה על ידי האחים חני וסעיד צ'יחאבי, שברחו ל-אירופה מ-סוריה זמן קצר לפני המהפכה. אף אחד מהם לא עבר הכשרה רשמית במדעי המחשב. שניהם למדו תכנות בעצמם דרך YouTube וכלי בינה מלאכותית.

- "מעולם לא התעניינו באמת בטכנולוגיה," סיפר חני ל-Barakah Insider. "נכנסנו לזה כי אנחנו חיים בעידן דיגיטלי וידעו שאנחנו יכולים להשפיע באמצעות טכנולוגיה. פשוט היינו צריכים ללמוד הכל בעצמנו."

כאשר נכנסו למערכת התאגידית ב-גרמניה, הם הבינו שהעבודה שהם מבצעים—בניית מערכות ללקוחות בתחום התרופות—נוגדת את המחויבויות האתיות שלהם.

- "זה לא הלך יד ביד עם הסיבה שהתחלנו בטכנולוגיה," אמר חני. "במיוחד עם מה שקרה ב-פלסטין וב-סוריה… היה לנו אותו קריאה לעשות משהו."

קריאה זו הובילה לתאורה, בערבית "מהפכה". לא מרד פוליטי, אלא אתגר לאימפריאליזם הטכנולוגי.

למה תאורה קיימת
נקודת המוצא של המייסדים הייתה פשוטה: מסרים מוצפנים יש ל-Signal; חיפוש יש ל-DuckDuckGo; דפדפנים יש ל-Brave; אך בינה מלאכותית, הטכנולוגיה האינטימית ביותר, לא הייתה לה איזון אתי.

"לא הייתה חלופה ל-בינה מלאכותית," אמר חני. "הדודה שלי מדברת עם בינה מלאכותית יותר מכל אדם שאני מכיר. ואני מרגיש שזה נורא כי ל-ChatGPT אין מסגרת אתית. וזה מפחיד."

המשימה של תאורה: לבנות בינה מלאכותית שאינה מנצלת משתמשים, אינה עוקבת אחריהם ואינה מצנזרת מציאות פוליטית.

בניגוד למפתחי בינה מלאכותית תאגידיים, עמדת תאורה האתית היא מפורשת ומושרשת תרבותית. המחויבויות המרכזיות כוללות: לא לאמן על נתוני משתמשים, למנוע כל מעקב, מעקב התנהגותי ופרופילינג, לדחות חוזים צבאיים, לשמור על סולידריות מפורשת עם פלסטין וקהילות שוליות אחרות, ולאחסן נתונים בשרתים פרטיים התואמים GDPR עם הצפנת AES-256 וללא שמירת נתוני משתמשים.

זה הופך את תאורה לאחת הפלטפורמות הבודדות של בינה מלאכותית שמסרבות בגלוי למודלי עסק של Big Tech ולהטיות פוליטיות כאחד.
[1]

Brands from Thaura AIBrands fra Thaura AIبراندات من ثورةThaura AI markalarıبرندها از ثورةBrands von Thaura AIמותגים מ Thaura AI

Owners of Thaura AIEjere af Thaura AIأصحاب ثورةThaura AI sahipleriصاحبان ثورةBesitzer von Thaura AIבעלי Thaura AI

Alternatives to Thaura AIAlternativer til Thaura AIبدائل لـ ثورةThaura AI için alternatiflerجایگزین‌ها برای ثورةAlternativen zu Thaura AIאלטרנטיבות ל-Thaura AI

 Opdateret: 02/01-2026.


Anmeld Thaura AI (ثورة)

Har du opdaget en fejl, ønsker at anmelde Thaura AI (ثورة) eller foreslå alternativer? Gør det her, så undersøger vi sagen og retter det hurtigst muligt.