Charte d'utilisation de l'IA
L'IA éthique pour l'apprentissage des langues
Transparence sur la façon dont nous utilisons l'intelligence artificielle pour améliorer votre expérience d'apprentissage tout en respectant votre vie privée et en garantissant la qualité.
Dernière mise à jour : 6 août 2025
Notre philosophie de l'IA
Chez Políglota AI, nous croyons que l’intelligence artificielle devrait :
- Améliorer, et non remplacer l’apprentissage humain
- S’adapter aux styles d’apprentissage individuels
- Respecter la vie privée et les données des utilisateurs
- Fournir un contenu précis et vérifié
- Rester transparente dans ses opérations
Modèles d'IA que nous utilisons
Nous employons plusieurs modèles d’IA à des fins différentes :
Traduction et génération de contenu
- Qwen3-32B pour les traductions multilingues
- Vérification croisée avec plusieurs modèles
- Validation par des locuteurs natifs pour la précision
Conversation et tutorat
- Modèles OpenAI pour l’IA conversationnelle
- Plateforme Groq (modèles Llama) pour des réponses rapides
- Claude pour les tâches de raisonnement complexe
Sécurité et modération
- Llama Guard pour la sécurité du contenu
- Consensus de plusieurs modèles pour la précision
- Supervision humaine pour les cas limites
Comment l'IA améliore votre apprentissage
Parcours d’apprentissage personnalisés
- L’IA analyse vos progrès pour optimiser les intervalles SRS
- Adapte la difficulté en fonction des performances
- Suggère du contenu correspondant à vos intérêts
Création et curation de contenu
- Génère des phrases d’exemple contextuelles
- Crée des exercices pratiques
- Vérifie l’exactitude par consensus multi-modèles
Fonctionnalités interactives
- Partenaires de conversation IA qui s’adaptent à votre niveau
- Reconnaissance vocale et feedback de prononciation
- Correction d’erreurs en temps réel avec explications
Assurance qualité
Nous assurons la qualité du contenu généré par l’IA grâce à :
Vérification multi-modèles
- Vérification croisée entre différents modèles d’IA
- Exigences de consensus pour l’approbation du contenu
Supervision humaine
- Les locuteurs natifs examinent le contenu critique
- Audits réguliers des matériaux générés par l’IA
- Intégration des commentaires des utilisateurs
Amélioration continue
- Mises à jour régulières des modèles et ajustements fins
- Surveillance et optimisation des performances
- Suivi de la satisfaction des utilisateurs
Utilisation des données et confidentialité
Ce que l’IA traite
- Vos progrès et modèles d’apprentissage
- Préférences de contenu et intérêts
- Transcriptions de conversations (temporairement)
Ce que l’IA ne fait pas
- Stocker les conversations personnelles de manière permanente
- Partager vos données avec des tiers
- Prendre des décisions sans transparence
Votre contrôle
- Optez pour le traitement IA basé dans l’UE (Mistral)
- Supprimez l’historique des conversations IA
- Exportez vos données d’apprentissage
Engagements de transparence
Nous nous engageons à :
- Marquer clairement le contenu généré par l’IA
- Expliquer la prise de décision de l’IA lorsque c’est pertinent
- Fournir des alternatives humaines sur demande
- Publier des rapports de transparence réguliers
- Être ouverts sur les limitations des modèles
Limitations de l'IA
Nous reconnaissons que l’IA :
- Peut occasionnellement produire des erreurs
- Ne peut pas remplacer la compréhension culturelle humaine
- A des biais inhérents que nous travaillons à minimiser
- Nécessite une supervision humaine pour les décisions critiques
Nous travaillons activement pour minimiser ces limitations grâce à une amélioration continue et une supervision humaine.
Droits des utilisateurs
Vous avez le droit de :
- Savoir quand vous interagissez avec l’IA
- Demander un examen humain des décisions de l’IA
- Vous désinscrire de certaines fonctionnalités IA
- Accéder aux explications des recommandations de l’IA
- Signaler les erreurs ou préoccupations de l’IA
Engagements futurs
Nous nous engageons à :
- Rester à jour avec les meilleures pratiques d’éthique de l’IA
- Mettre à jour régulièrement cette charte
- Engager la communauté sur l’utilisation de l’IA
- Prioriser le bénéfice de l’utilisateur sur l’automatisation
- Maintenir la supervision humaine des fonctions critiques
Contactez-nous
Des questions ou des préoccupations concernant notre utilisation de l’IA ?
Email : support@poliglota.ai
Objet : “Demande concernant la charte IA”
Nous accueillons favorablement les commentaires et suggestions pour améliorer nos pratiques d’IA.