강화 학습

  • Eine leichte Python-Bibliothek zur Erstellung anpassbarer 2D-Gitterumgebungen für das Training und Testen von Verstärkungslern-Agenten.
    0
    0
    Was ist Simple Playgrounds?
    Simple Playgrounds bietet eine modulare Plattform zum Aufbau interaktiver 2D-Gitterumgebungen, in denen Agenten Labyrinthe erkunden, mit Objekten interagieren und Aufgaben erfüllen können. Benutzer definieren Umgebungslayouts, Objektverhalten und Belohnungsfunktionen mit einfachen YAML- oder Python-Skripten. Der integrierte Pygame-Renderer liefert eine Echtzeitvisualisierung, während eine schrittabhängige API eine nahtlose Integration mit RL-Bibliotheken wie Stable Baselines3 ermöglicht. Mit Unterstützung für Multi-Agent-Setups, Kollisionsdiagnose und anpassbare physikalische Parameter vereinfacht Simple Playgrounds die Prototypenerstellung, Benchmarking und pädagogische Demonstrationen von KI-Algorithmen.
  • Open-Source-PyTorch-Bibliothek, die modulare Implementierungen von Verstärkungslernagenten wie DQN, PPO, SAC und mehr bietet.
    0
    0
    Was ist RL-Agents?
    RL-Agents ist ein forschungsorientiertes Verstärkungslern-Framework, das auf PyTorch aufbaut und beliebte RL-Algorithmen aus wertbasierten, politikbasierten und actor-critic-Methoden bündelt. Die Bibliothek verfügt über eine modulare Agent-API, GPU-Beschleunigung, nahtlose Integration mit OpenAI Gym und integrierte Logging- und Visualisierungstools. Benutzer können Hyperparameter konfigurieren, Trainingsabläufe anpassen und die Leistung mit wenigen Zeilen Code benchmarken, was RL-Agents ideal für wissenschaftliche Forschung, Prototyping und industrielle Experimente macht.
  • Ein Verstärkungslernen-Rahmenwerk, das autonomen Robotern ermöglicht, sich in Mehragentenumgebungen zu navigieren und Kollisionen zu vermeiden.
    0
    0
    Was ist RL Collision Avoidance?
    RL Collision Avoidance bietet eine vollständige Pipeline zur Entwicklung, Schulung und Einsatz von Kollisionsvermeidungspolicies für Mehrrobotersysteme. Es bietet eine Reihe von simulationsbasierten Szenarien, in denen Agenten durch Verstärkungslernalgorithmen kollisionsfreie Navigation erlernen. Benutzer können Umweltparameter anpassen, GPU-Beschleunigung für schnellere Schulung nutzen und erlernte Policies exportieren. Das Framework integriert sich zudem mit ROS für Tests in der realen Welt, unterstützt vortrainierte Modelle für sofortige Evaluierung und bietet Werkzeuge zur Visualisierung von Agentenverfolgungen und Leistungsmetriken.
  • Dead-simple Selbstlernen ist eine Python-Bibliothek, die einfache APIs für den Aufbau, das Training und die Bewertung von Verstärkungslernagenten bereitstellt.
    0
    0
    Was ist dead-simple-self-learning?
    Dead-simple Selbstlernen bietet Entwicklern eine äußerst einfache Methode, um Verstärkungslernagenten in Python zu erstellen und zu trainieren. Das Framework abstrahiert Kernkomponenten des RL, wie Umgebungswrapper, Policy-Module und Erfahrungspuffer, in prägnante Schnittstellen. Nutzer können schnell Umgebungen initialisieren, benutzerdefinierte Policies mit vertrauten Backends wie PyTorch oder TensorFlow definieren und Trainingsschleifen mit integrierter Protokollierung und Checkpoints ausführen. Die Bibliothek unterstützt on-policy und off-policy Algorithmen, was flexible Experimente mit Q-Learning, Policy-Gradients und Actor-Critic-Methoden ermöglicht. Durch die Reduktion von Boilerplate-Code erlaubt Dead-simple Selbstlernen Praktikern, Pädagogen und Forschern, Algorithmen zu prototypisieren, Hypothesen zu testen und die Agentenleistung zu visualisieren – mit minimaler Konfiguration. Das modulare Design erleichtert auch die Integration mit bestehenden ML-Stacks und maßgeschneiderten Umgebungen.
  • SoccerAgent verwendet Multi-Agenten-Verstärkungslernen, um KI-Spieler für realistische Fußballsimulationen und Strategieoptimierungen zu trainieren.
    0
    0
    Was ist SoccerAgent?
    SoccerAgent ist ein spezialisiertes KI-Framework zur Entwicklung und zum Training autonomer Fußballagenten mit modernsten Multi-Agenten-Verstärkungslernmethoden (MARL). Es simuliert realistische Fußballspiele in 2D- oder 3D-Umgebungen und bietet Werkzeuge zur Definition von Belohnungsfunktionen, Anpassung von Spielerattributen und Implementierung taktischer Strategien. Nutzer können gängige RL-Algorithmen wie PPO, DDPG und MADDPG über integrierte Module integrieren, den Trainingsfortschritt auf Dashboards überwachen und Agentenverhalten in Echtzeit visualisieren. Das Framework unterstützt szenarienbasiertes Training für Angriffs-, Verteidigungs- und Koordinationsprotokolle. Mit einer erweiterbaren Codebasis und ausführlicher Dokumentation ermöglicht SoccerAgent Forschern und Entwicklern, Teamdynamiken zu analysieren und KI-gesteuerte Spielstrategien für wissenschaftliche und kommerzielle Projekte zu verfeinern.
  • Ein Open-Source-Verstärkungslernagent, der PPO verwendet, um StarCraft II über DeepMinds PySC2-Umgebung zu trainieren und zu spielen.
    0
    0
    Was ist StarCraft II Reinforcement Learning Agent?
    Dieses Repository bietet ein End-to-End-Verstärkungslernframework für die Forschung im StarCraft II Gameplay. Der Kernagent verwendet Proximal Policy Optimization (PPO), um Policies-Netzwerke zu erlernen, die Beobachtungsdaten aus der PySC2-Umgebung interpretieren und präzise Spielaktionen ausführen. Entwickler können neuronale Netzwerkschichten, Belohnungsformung und Trainingspläne konfigurieren, um die Leistung zu optimieren. Das System unterstützt Mehrprozessverarbeitung für effiziente Beispelsammlung, Protokollierungstools zur Überwachung der Trainingskurven und Evaluierungsskripte zum Testen trainierter Policies gegen skriptgesteuerte oder integrierte KI-Gegner. Der Code ist in Python geschrieben und nutzt TensorFlow für Modelldefinition und Optimierung. Nutzer können Komponenten wie maßgeschneiderte Belohnungsfunktionen, Zustandsvorverarbeitung oder Netzwerkarchitekturen erweitern, um spezifische Forschungsziele zu verfolgen.
  • Ein RL-basierter KI-Agent, der optimale Wettstrategien lernt, um Heads-up-Limits Texas Hold'em Poker effizient zu spielen.
    0
    0
    Was ist TexasHoldemAgent?
    TexasHoldemAgent bietet eine modulare Umgebung auf Python-Basis, um einen KI-gestützten Poker-Spieler für Heads-up-Limits Texas Hold'em zu trainieren, zu bewerten und einzusetzen. Es integriert eine benutzerdefinierte Simulations-Engine mit Algorithmen des Deep Reinforcement Learning, einschließlich DQN, für iterative Politikverbesserung. Zu den Kernfunktionen gehören die Codierung des Hand-Zustands, Definitionsbereich für Aktionen (fold, call, raise), Belohnungsformung und Echtzeit-Entscheidungsbewertung. Nutzer können Lernparameter anpassen, CPU/GPU-Beschleunigung nutzen, den Trainingsfortschritt überwachen sowie trainierte Modelle laden oder speichern. Das Framework unterstützt Batch-Simulationen zur Testung verschiedener Strategien, Generierung von Leistungskennzahlen und Visualisierung der Gewinnraten, wodurch Forscher, Entwickler und Poker-Enthusiasten experimentieren können, um KI-gesteuerte Spielstrategien zu entwickeln.
  • Text-to-Reward lernt allgemeine Belohnungsmodelle aus natürlichen Sprachbefehlen, um RL-Agenten effektiv zu steuern.
    0
    0
    Was ist Text-to-Reward?
    Text-to-Reward stellt eine Pipeline bereit, um Belohnungsmodelle zu trainieren, die textbasierte Aufgabenbeschreibungen oder Feedback in skalare Belohnungswerte für RL-Agenten umwandeln. Durch die Nutzung transformer-basierter Architekturen und Feinabstimmung auf gesammelten menschlichen Präferenzdaten lernt das Framework automatisch, natürliche Sprachbefehle als Belohnungssignale zu interpretieren. Nutzer können beliebige Aufgaben über Textaufforderungen definieren, das Modell trainieren und die gelernte Belohnungsfunktion in beliebige RL-Algorithmen integrieren. Dieser Ansatz eliminiert manuelles Belohnungsdesign, erhöht die Probeneffizienz und ermöglicht Agenten, komplexen Mehrschrittanweisungen in simulierten oder realen Umgebungen zu folgen.
  • uAgents bietet ein modulares Framework zum Aufbau dezentraler autonomer KI-Agenten, die Peer-to-Peer-Kommunikation, Koordination und Lernen ermöglichen.
    0
    0
    Was ist uAgents?
    uAgents ist ein modulares JavaScript-Framework, das Entwicklern ermöglicht, autonome, dezentrale KI-Agenten zu erstellen, die Peers entdecken, Nachrichten austauschen, an Aufgaben zusammenarbeiten und durch Lernen adaptieren. Die Agenten kommunizieren über libp2p-basierte Gossip-Protokolle, registrieren Fähigkeiten über On-Chain-Register und verhandeln Service-Level-Agreements mittels Smart Contracts. Die Kernbibliothek verwaltet Agentenlebenszyklusereignisse, Nachrichtenrouting und erweiterbare Verhaltensweisen wie Verstärkendes Lernen und marktorientierte Aufgabenverteilung. Mithilfe anpassbarer Plugins können uAgents mit Fetch.ai’s Ledger, externen APIs und Oraclenetzen integriert werden, sodass Agenten reale Aktionen durchführen, Daten erfassen und Entscheidungen in verteilten Umgebungen ohne zentrale Steuerung treffen können.
  • Vanilla Agents bietet einsatzbereite Implementierungen von DQN, PPO und A2C RL-Agenten mit anpassbaren Trainingspipelines.
    0
    0
    Was ist Vanilla Agents?
    Vanilla Agents ist ein leichtgewichtiges, auf PyTorch basierendes Framework, das modulare und erweiterbare Implementierungen wesentlicher Reinforcement-Learning-Agenten liefert. Es unterstützt Algorithmen wie DQN, Double DQN, PPO und A2C, mit anpassbaren Umwelt-Wrappern, die mit OpenAI Gym kompatibel sind. Benutzer können Hyperparameter konfigurieren, Trainingsmetriken protokollieren, Checkpoints speichern und Lernkurven visualisieren. Der Code ist klar strukturiert, ideal für Forschungsprototypen, Bildungszwecke und Benchmarking neuer Ideen im RL.
  • VMAS ist ein modulares MARL-Rahmenwerk, das GPU-beschleunigte Multi-Agenten-Umgebungssimulation und -training mit integrierten Algorithmen ermöglicht.
    0
    0
    Was ist VMAS?
    VMAS ist ein umfassendes Toolkit zum Aufbau und Training von Multi-Agenten-Systemen mit Deep Reinforcement Learning. Es unterstützt GPU-basiertes Parallel-Rendering von Hunderten von Umgebungsinstanzen, ermöglicht Hochdurchsatz-Datensammlung und skalierbares Training. VMAS umfasst Implementierungen populärer MARL-Algorithmen wie PPO, MADDPG, QMIX und COMA sowie modulare Politik- und Umfeldschnittstellen für schnelle Prototypisierung. Das Framework erleichtert zentrales Training mit dezentraler Ausführung (CTDE), bietet anpassbare Belohnungsformung, Beobachtungsräume und Callback-Hooks für Logging und Visualisierung. Mit seinem modularen Design integriert sich VMAS nahtlos mit PyTorch-Modellen und externen Umgebungen und ist ideal für Forschung in kooperativen, konkurrierenden und gemischten Aufgaben in Robotik, Verkehrssteuerung, Ressourcenverwaltung und Spiel-KI-Szenarien.
  • Ein Open-Source-RL-Agent für Yu-Gi-Oh-Duelle, der Umweltsimulation, Politikschulung und Strategieoptimierung bietet.
    0
    0
    Was ist YGO-Agent?
    Das YGO-Agent-Framework ermöglicht Forschern und Enthusiasten die Entwicklung von KI-Bots, die das Yu-Gi-Oh-Kartenspiel mit Verstärkungslernen spielen. Es verpackt den YGOPRO-Spielsimulator in eine OpenAI-Gym-kompatible Umgebung, die Zustandsrepräsentationen wie Hand, Spielfeld und Lebenspunkte sowie Aktionsrepräsentationen wie Beschwörung, Zauber/Fallen-Aktivierung und Angriff definiert. Belohnungen basieren auf Gewinn/Verlust, verursachtem Schaden und Spielverlauf. Die Architektur des Agents verwendet PyTorch, um DQN zu implementieren, mit Optionen für benutzerdefinierte Netzwerkarchitekturen, Erfahrungsspeicherung und epsilon-gieriger Erkundung. Protokollierungsmodule zeichnen Trainingskurven, Gewinnraten und detaillierte Spielzüge für die Analyse auf. Das Rahmenwerk ist modular, sodass Benutzer Komponenten wie die Belohnungsfunktion oder den Aktionsraum austauschen oder erweitern können.
  • A-Mem stellt KI-Agenten ein Speicher-Modul zur Verfügung, das episodisches, kurzzeitiges und langfristiges Speichern und Abrufen ermöglicht.
    0
    0
    Was ist A-Mem?
    A-Mem ist so konzipiert, dass es nahtlos mit Python-basierten KI-Agenten-Frameworks integriert werden kann und drei unterschiedliche Speichermodule bietet: episodisches Gedächtnis für den Kontext pro Episode, Kurzzeitgedächtnis für unmittelbare vergangene Aktionen und Langzeitgedächtnis für die Ansammlung von Wissen über die Zeit. Entwickler können die Speicherkapazität, Aufbewahrungsrichtlinien und Serialisierungs-Backends wie In-Memory- oder Redis-Speicherung anpassen. Die Bibliothek beinhaltet effiziente Indexierungsalgorithmen, um relevante Erinnerungen basierend auf Ähnlichkeit und Kontextfenstern abzurufen. Durch das Einfügen der A-Mem-Speicher-Handler in die Wahrnehmungs-Aktions-Schleife des Agenten können Benutzer Beobachtungen, Aktionen und Ergebnisse speichern und vergangene Erfahrungen abfragen, um aktuelle Entscheidungen zu informieren. Dieses modulare Design unterstützt schnelle Experimente im Reinforcement Learning, in der Konversations-KI, Robotik-Navigation und anderen agentengetriebenen Aufgaben, die Kontextbewusstsein und zeitliches Schließen erfordern.
  • Verbindet den X-Plane-Flugsimulator mit OpenAI Gym, um Verstärkungslernagenten für realistische Flugzeugsteuerung via Python zu trainieren.
    0
    0
    Was ist GYM_XPLANE_ML?
    GYM_XPLANE_ML umhüllt den X-Plane-Flugsimulator als OpenAI-Gym-Umgebung, wobei Gas, Höhenruder, Querruder und Ruderausgänge als Aktionsräume und Flugdaten wie Flughöhe, Geschwindigkeit und Orientierung als Beobachtungen bereitgestellt werden. Nutzer können Trainingsabläufe in Python skripten, vordefinierte Szenarien auswählen oder Wegpunkte, Wetterbedingungen und Flugzeugmodelle anpassen. Die Bibliothek verwaltet die Low-Latency-Kommunikation mit X-Plane, führt Episoden synchron aus, protokolliert Leistungsmetriken und unterstützt Echtzeit-Rendering für Debugging. Sie ermöglicht die iterative Entwicklung von ML-gesteuerten Autopiloten und experimentellen RL-Algorithmen in einer hochpräzisen Flugumgebung.
  • Acme ist ein modulares Reinforcement-Learning-Framework, das wiederverwendbare Agentenkomponenten und effiziente verteilte Trainingspipelines bietet.
    0
    0
    Was ist Acme?
    Acme ist ein auf Python basierendes Framework, das die Entwicklung und Bewertung von Reinforcement-Learning-Agenten vereinfacht. Es bietet eine Sammlung von vorgefertigten Agentenimplementierungen (z.B. DQN, PPO, SAC), Umgebungs-Wrapper, Replay-Puffer und verteilte Ausführungsmaschinen. Forscher können Komponenten kombinieren, um neue Algorithmen zu prototypisieren, Trainingsmetriken mit integriertem Logging zu überwachen und skalierbare verteilte Pipelines für groß angelegte Experimente zu nutzen. Acme integriert sich mit TensorFlow und JAX, unterstützt benutzerdefinierte Umgebungen via OpenAI Gym-Interfaces und enthält Hilfsprogramme für Checkpoints, Evaluationen und Hyperparameter-Konfigurationen.
  • Ein KI-Agenten-Framework, das mehrere Übersetzungsagenten orchestriert, um maschinelle Übersetzungen kollaborativ zu erstellen, zu verfeinern und zu bewerten.
    0
    0
    Was ist AI-Agentic Machine Translation?
    AI-Agentic Machine Translation ist ein Open-Source-Framework, das für Forschung und Entwicklung im Bereich maschineller Übersetzungen entwickelt wurde. Es orchestriert drei Kern-Agents – einen Generator, einen Evaluator und einen Refiner – die gemeinsam Übersetzungen produzieren, bewerten und verbessern. Das System basiert auf PyTorch und Transformer-Modellen, unterstützt überwachte Vortrainings, Reinforcement-Learning-Optimierung und konfigurierbare Agenten-Policies. Nutzer können auf Standard-Datensätzen benchmarken, BLEU-Scores verfolgen und die Pipeline mit eigenen Agents oder Reward-Funktionen erweitern, um die Zusammenarbeit von Agenten bei Übersetzungsaufgaben zu erforschen.
  • AI Hedge Fund 5zu verwendet Verstärkendes Lernen, um die Portfolioverwaltung zu automatisieren und Handelsstrategien zu optimieren.
    0
    0
    Was ist AI Hedge Fund 5zu?
    AI Hedge Fund 5zu bietet eine vollständige Pipeline für quantitativen Handel: eine anpassbare Umgebung zur Simulation mehrerer Vermögenskategorien, Agentenmodule auf Verstärkendem Lernen-Basis, Backtesting-Tools, Echtzeit-Marktdatenintegration und Risikomanagement-Tools. Nutzer können Datenquellen konfigurieren, Belohnungsfunktionen definieren, Agenten mit historischen Daten trainieren und die Leistung anhand wichtiger Finanzkennzahlen bewerten. Das Framework unterstützt modulare Strategienentwicklung und kann für den Einsatz an Live-Broker-APIs erweitert werden, um produktionsreife Handel-Bots zu deployen.
  • Open-Source-Python-Werkzeugkasten, der zufällige, regelbasierte Mustererkennung und Verstärkungslernagenten für Schere, Stein, Papier anbietet.
    0
    0
    Was ist AI Agents for Rock Paper Scissors?
    KI-Agenten für Schere, Stein, Papier ist ein Open-Source-Python-Projekt, das zeigt, wie man verschiedene KI-Strategien—Zufallsspiel, regelbasierte Mustererkennung und Verstärkungslernen (Q-Learning)—im klassischen Spiel Schere, Stein, Papier aufbaut, trainiert und bewertet. Es bietet modulare Agentenklassen, einen konfigurierbaren Spiel-Runner, Leistungsprotokollierung und Visualisierungswerkzeuge. Benutzer können Agenten leicht austauschen, Lernparameter anpassen und KI-Verhalten in Wettbewerbsumgebungen erkunden.
  • Ant_racer ist eine virtuelle Multi-Agenten-Verfolgungs-Entweich-Plattform, die OpenAI/Gym und Mujoco verwendet.
    0
    0
    Was ist Ant_racer?
    Ant_racer ist eine virtuelle Multi-Agenten-Verfolgungs-Entweich-Plattform, die eine Spielumgebung zum Studium des Multi-Agenten-Verstärkungslernens bietet. Es basiert auf OpenAI Gym und Mujoco und ermöglicht Nutzern, die Interaktionen zwischen mehreren autonomen Agenten bei Verfolgungs-und Entweichaufgaben zu simulieren. Die Plattform unterstützt die Implementierung und das Testen von Verstärkungslernalgorithmen wie DDPG in einer physikalisch realistischen Umgebung. Sie ist nützlich für Forscher und Entwickler, die sich für KI-Multi-Agenten-Verhalten in dynamischen Szenarien interessieren.
  • Eine Python OpenAI Gym-Umgebung, die die Bier-Spiel-Lieferkette für das Training und die Bewertung von RL-Agenten simuliert.
    0
    0
    Was ist Beer Game Environment?
    Die Beer Game Environment bietet eine diskrete Zeitsimulation einer vierstufigen Bierlieferkette — Einzelhändler, Großhändler, Distributor und Hersteller — mit einer OpenAI Gym-Schnittstelle. Agenten erhalten Beobachtungen wie Bestände, Pipeline-Bestände und eingehende Bestellungen und geben Bestellmengen aus. Die Umgebung berechnet Per-Schritt-Kosten für Lagerhaltung und Rückstände und unterstützt anpassbare Nachfragesdistributoren und Vorlaufzeiten. Sie integriert sich nahtlos mit beliebten RL-Bibliotheken wie Stable Baselines3, was Forschern und Lehrenden ermöglicht, Algorithmen im Bereich Supply-Chain-Optimierung zu benchmarken und zu trainieren.
Ausgewählt
ThumbnailCreator.com
KI-gestütztes Tool zur schnellen und einfachen Erstellung beeindruckender, professioneller YouTube-Vorschaubilder.
Refly.ai
Refly.AI ermöglicht nicht‑technischen Kreativen, Arbeitsabläufe mit natürlicher Sprache und einer visuellen Leinwand zu automatisieren.
VoxDeck
KI-Präsentations-Tool, das die visuelle Revolution anführt
BGRemover
Entfernen Sie ganz einfach Hintergründe von Bildern online mit SharkFoto BGRemover.
Qoder
Qoder ist ein KI-gestützter Coding-Assistent, der Planung, Codierung und Tests für Softwareprojekte automatisiert.
Flowith
Flowith ist ein Canvas-basierter agentischer Arbeitsbereich, der kostenloses 🍌Nano Banana Pro und andere effektive Model
FineVoice
Verwandle Text in Emotion — Klone, designe und erstelle ausdrucksstarke KI-Stimmen in Sekundenschnelle.
Skywork.ai
Skywork AI ist ein innovatives Tool zur Steigerung der Produktivität mit KI.
FixArt AI
FixArt AI bietet kostenlose, uneingeschränkte KI-Tools zur Bild- und Videogenerierung ohne Anmeldung an.
Elser AI
All‑in‑one Web‑Studio, das Text und Bilder in Anime‑Kunst, Charaktere, Stimmen und Kurzfilme verwandelt.
SharkFoto
SharkFoto ist eine leistungsstarke All-in-One KI-Plattform zur effizienten Erstellung und Bearbeitung von Videos, Bildern und Musik.
Funy AI
Erwecke deine Fantasien zum Leben! Erstelle KI-Bikini- & Kuss-Videos aus Bildern/Text. Teste den KI-Kleidungswechsler. K
Yollo AI
Chatten & erstellen mit Ihrem KI-Begleiter. Bild-zu-Video & KI-Bildgenerator.
Pippit
Steigern Sie Ihre Inhaltserstellung mit den leistungsstarken KI-Tools von Pippit!
AI Clothes Changer by SharkFoto
AI Clothes Changer von SharkFoto ermöglicht es Ihnen, Outfits sofort virtuell anzuprobieren – mit realistischer Passform, Textur und Beleuchtung.
SuperMaker AI Video Generator
Erstellen Sie mühelos atemberaubende Videos, Musik und Bilder mit SuperMaker.
AnimeShorts
Erstellen Sie mühelos atemberaubende Anime-Kurzfilme mit modernster KI-Technologie.
Palix AI
All‑in‑one AI‑Plattform für Creator, um mit einheitlichen Credits Bilder, Videos und Musik zu erzeugen.
Lyria3 AI
KI-Musikgenerator, der sofort hochwertige, vollständig produzierte Songs aus Textvorgaben, Liedtexten und Stilvorgaben erstellt.
Paper Banana
KI-gestütztes Tool, das akademischen Text sofort in veröffentlichungsreife methodische Diagramme und präzise statistische Plots umwandelt.
Tome AI PPT
KI-gestützter Präsentations-Generator, der in Minuten professionelle Folien erstellt, verschönert und exportiert.
AI Pet Video Generator
Erstellen Sie virale, teilbare Haustier‑Videos aus Fotos mithilfe KI‑gestützter Vorlagen und sofortigem HD‑Export für soziale Plattformen.
Atoms
KI‑gesteuerte Plattform, die mit Multi‑Agenten‑Automatisierung in Minuten Full‑Stack‑Apps und Websites erstellt — kein Programmieren erforderlich.
Ampere.SH
Kostenloses verwaltetes OpenClaw‑Hosting. KI‑Agenten in 60 Sekunden mit $500 Claude‑Guthaben bereitstellen.
HookTide
KI‑gestützte LinkedIn‑Wachstumsplattform, die deine Stimme lernt, um Inhalte zu erstellen, Interaktionen zu fördern und die Leistung zu analysieren.
Veemo - AI Video Generator
Veemo AI ist eine All‑in‑One‑Plattform, die schnell hochwertige Videos und Bilder aus Text oder Bildern generiert.
Hitem3D
Hitem3D wandelt ein einzelnes Bild mithilfe von KI in hochauflösende, produktionsbereite 3D-Modelle um.
Seedance 20 Video
Seedance 2 ist ein multimodaler KI-Video-Generator, der konsistente Charaktere, mehrszenige Erzählungen und nativen Ton in 2K liefert.
GenPPT.AI
KI‑gestützter PPT‑Ersteller, der in Minuten professionelle PowerPoint‑Präsentationen mit Sprecherhinweisen und Diagrammen erstellt, verschönert und exportiert.
ainanobanana2
Nano Banana 2 erzeugt in 4–6 Sekunden Pro‑Qualität 4K‑Bilder mit präziser Textrendering und Konsistenz der Motive.
Create WhatsApp Link
Kostenloser WhatsApp-Link- und QR‑Generator mit Analytics, gebrandeten Links, Routing und Multi‑Agent‑Chat‑Funktionen.
Gobii
Gobii ermöglicht Teams, rund um die Uhr autonome digitale Arbeitskräfte zu erstellen, um Webrecherche und Routineaufgaben zu automatisieren.
AI FIRST
Konversationeller KI‑Assistent, der Forschung, Browseraufgaben, Web‑Scraping und Dateiverwaltung mittels natürlicher Sprache automatisiert.
AirMusic
AirMusic.ai erzeugt hochwertige KI-Musikstücke aus Textvorgaben mit Stil- und Stimmungsanpassung sowie Stem-Export.
GLM Image
GLM Image kombiniert hybride autoregressive und Diffusionsmodelle, um hochauflösende KI-Bilder mit außergewöhnlicher Textrendering-Qualität zu erzeugen.
TextToHuman
Kostenloser AI-Humanizer, der AI-Text sofort in natürliches, menschlich wirkendes Schreiben umschreibt. Keine Anmeldung erforderlich.
Manga Translator AI
AI Manga Translator übersetzt Manga-Bilder sofort online in mehrere Sprachen.
WhatsApp Warmup Tool
Ein KI-gestütztes WhatsApp-Warmup-Tool automatisiert Massenversand und verhindert Kontosperrungen.
Seedance 2 AI
Multimodaler KI-Video-Generator, der Bilder, Video, Audio und Text kombiniert, um kinoreife Kurzclips zu erstellen.
Remy - Newsletter Summarizer
Remy automatisiert das Newsletter-Management, indem E-Mails in leicht verständliche Erkenntnisse zusammengefasst werden.
LTX-2 AI
Die Open-Source LTX-2 erzeugt 4K-Videos mit nativer Audio-Synchronisation aus Text- oder Bildvorgaben, schnell und produktionsbereit.
Seedance-2
Seedance 2.0 ist ein kostenloser, KI-gestützter Text-zu-Video- und Bild-zu-Video-Generator mit realistischer Lippen-Synchronisation und Soundeffekten.
FalcoCut
FalcoCut: webbasiertes KI‑Portal für Videoübersetzung, Avatar‑Videos, Voice‑Cloning, Gesichtstausch und Erstellung kurzer Videos.
Telegram Group Bot
TGDesk ist ein All-in-One Telegram-Gruppen-Bot zum Erfassen von Leads, zur Steigerung der Interaktion und zum Wachstum von Communities.
SOLM8
KI‑Freundin, die du anrufst und mit der du chattest. Echte Sprachgespräche mit Gedächtnis. Jeder Moment mit ihr fühlt sich besonders an.
Van Gogh Free Video Generator
Ein KI-gestützter kostenloser Video-Generator, der mühelos beeindruckende Videos aus Text und Bildern erstellt.
Vertech Academy
Vertech bietet KI-Aufforderungen, die Schülern und Lehrern helfen, effektiv zu lernen und zu lehren.
Img2.AI
KI-Plattform, die Fotos schnell und in hoher Qualität in stilisierte Bilder und kurze animierte Videos verwandelt und ein Ein-Klick-Upscaling bietet.
ai song creator
Erstellen Sie bis zu 8 Minuten lange, lizenzfreie, KI‑generierte Musik mit kommerzieller Lizenz.
RSW Sora 2 AI Studio
Entfernen Sie das Sora-Wasserzeichen sofort mit einem KI-gestützten Tool — ohne Qualitätsverlust und mit schnellen Downloads.
Qwen-Image-2512 AI
Qwen-Image-2512 ist ein schneller, hochauflösender KI-Bildgenerator mit nativer Unterstützung für chinesischen Text.
Lease A Brain
KI-gestütztes Team aus Experten virtuellen Fachkräften, bereit zur Unterstützung in vielfältigen Geschäftstätigkeiten.