Garrus Salut, J'ai mis la 5 pendant 2 semaines, je suis revenu sur la 4, car la 5 a dégradé énormément les performances. C'est-à-dire que toute la bande passante est utilisée et que cela rend la lecture via plex difficile.
Alors je veux bien qu'il faut recommencer à reconstruire le cache comme la BD est différentes, mais une synchro pendant 2 semaines, je trouve cela bizarre.

pour info :
Serveur chez OVH
Bande passante 100Mbit/s
1 To de video.

    bonjour
    j ai quelques questions
    1) est ce qu un compte google drive acheter sur ebay fonctionne avec plex
    email edu par exemple et compte gdrive education
    2) faut il un compte plex avec un pass ?

    merci d avance

    • D4rk a répondu à ça.

      cedricdu06

      Je suis tombé sur Ebay sur quelqu'un partageait uniquement un dossier et non un compte, donc lit bien la description.

      Le plexpass sert uniquement pour plexCloud et le partage de ton serveur avec des amis.

        D4rk & obscur
        Ok, merci pour vos réponses. Bon je crois que je vais rester avec Plexdrive v3 pour l'instant, pas trop à m'en plaindre lol

        • D4rk a répondu à ça.

          Je suis sur la version 5 depuis 3 semaines environ et ça fonctionne très bien. Pas de différences notables avec les versions précédentes

          10 jours plus tard

          Garrus As tu déjà eu l’erreur ci-dessous sur Plex avec Gsuite ? Ça fait deux fois que ça me fait ça.
          J'ai deux serveur Plex avec scan périodique de 15 mins.

          [Player] A Shaka error occurred: 1001 (Réseau); the player will attempt to recover

          [Edit] : Bon c'est un ban de l'api ..

            5 jours plus tard

            D4rk Salut. Non perso j'ai jamais vu cette erreur.

            • D4rk a répondu à ça.

              Garrus Ça a durée grand max 8h. J'ai eu ça a deux reprise.

              14 jours plus tard

              obscur Ouais la V5, j'ai deux serveurs qui index sur le même stockage.

              Le problème vient plutôt du fait d'utiliser deux serveurs non? Ce qui augmente considérablement le nombre et la rapidité des requêtes.

              J'ai supprimé au maximum les requêtes, enlever le "hardlink" de sonarr et radarr pour le partage de transmission. Enlever le scan périodique aussi, et utiliser plutôt le script sur mon post. Maintenant plus qu'à voir.

                D4rk N'oublie pas que tu peux lancer un scan à chaque ajout d'un fichier dans le dossier GDrive. J'utilise FileBot et non les outils natives de sonarr et radarr, mais chez moi FileBot copie directement dans le dossier GDrive, et une fois le transfert terminé, il lance le rafraîchissement via l'url.
                Ainsi, le scan ne s'effectue que quand il y a un nouveau fichier et pas inutilement chaque heure. Parfois, il y a plusieurs jours sans ajout de fichiers.

                • D4rk a répondu à ça.

                  zorgade Ha, je vais essayer filebot du coup. Chez moi c'est Sonarr et Radarr qui envoie sur Gdrive.

                  Ici pour les commandes plex via url zorgade
                  et ci-dessous un exemple pour les films. Filebot crée un hardlink dans un fichier temporaire "Movies", le script se lance chaque X minute. Si il y a un dossier dedans, le script se lance. J'utilise rclone pour déplacer le fichier et quand le déplacement est terminé (le dossier "Movies" est donc dorénavant vide), je lance un scan de la bibliothèque Plex correspondante via URL et Token.

                  #!/bin/bash
                  LOG_FILE=/home/<user>/logs/syncAMC.log
                  path=/home/<user>/torrents/Enc_media
                  
                  exec >> $LOG_FILE 2>&1
                  
                  echo ====================
                  echo "$(date)"
                  
                  if [ -e /home/<user>/syncAMC.lock ] || [ -e /home/<user>/sync.lock ]
                  then
                  echo "Rclone ou FileBot deja lance, on quitte"
                  exit
                  fi
                  
                  # Création d'un fichier .lock pour ne pas lancer deux instances en parallèle
                  touch /home/<user>/syncAMC.lock
                  
                  #Movies
                  if [ "`ls $path/Movies`" != "" ]
                  then
                  
                  echo "Lancement de la syncronisation Movies --> GSuite"
                  /usr/sbin/rclone copy -v  $path/Movies GSuiteEnc:Movies --transfers=5 --checkers=5 --log-file $LOG_FILE
                  wait
                  
                  curl "http://localhost:32400/library/sections/11/refresh?X-Plex-Token=TokenPLEX"
                  wait
                  
                  else
                  
                  echo "PAS de syncronisation Movies"
                  fi
                  

                  D'après ce que j'espère vois ton script refresh la library entière pour les films non ?

                    D4rk oui, la bibliothèque entière, mais seulement lors d'un ajout.
                    Et si tu utilise deux serveurs, tu peux fixer des heures fixes pour le refresh de la librairie. Ca évitera de faire trop souvent des appels à l api.
                    Tu peux très bien continuer à utiliser le post process de sonarr et radarr, juste créer un petit script qui te lance l url de refresh 1 fois par jour si tu veux pas te casser la tête avec filebot. A minuit sur le serveur 1 et à 7h sur le serveur 2 par exemple, pour espacer les requêtes

                    D4rk

                    "Le plexpass sert uniquement pour plexCloud et le partage de ton serveur avec des amis."

                    Pas besoin du passPlex pour partager les média avec les amis 😃

                    • D4rk a répondu à ça.

                      SkillFr J'ai déjà le plexpass à vie. 😁

                      Je vais voir quel solution je peux opter sinon, dommage que l'indexation auto marche pas avec fuse.. 😕 Merci de vos retours !