Garrus J'ai la 5 ça marche pas mal. J'ai pas test les autres versions.

    Garrus Salut, J'ai mis la 5 pendant 2 semaines, je suis revenu sur la 4, car la 5 a dégradé énormément les performances. C'est-à-dire que toute la bande passante est utilisée et que cela rend la lecture via plex difficile.
    Alors je veux bien qu'il faut recommencer à reconstruire le cache comme la BD est différentes, mais une synchro pendant 2 semaines, je trouve cela bizarre.

    pour info :
    Serveur chez OVH
    Bande passante 100Mbit/s
    1 To de video.

      bonjour
      j ai quelques questions
      1) est ce qu un compte google drive acheter sur ebay fonctionne avec plex
      email edu par exemple et compte gdrive education
      2) faut il un compte plex avec un pass ?

      merci d avance

      • D4rk a répondu à ça.

        cedricdu06

        Je suis tombé sur Ebay sur quelqu'un partageait uniquement un dossier et non un compte, donc lit bien la description.

        Le plexpass sert uniquement pour plexCloud et le partage de ton serveur avec des amis.

          D4rk & obscur
          Ok, merci pour vos réponses. Bon je crois que je vais rester avec Plexdrive v3 pour l'instant, pas trop à m'en plaindre lol

          • D4rk a répondu à ça.

            Je suis sur la version 5 depuis 3 semaines environ et ça fonctionne très bien. Pas de différences notables avec les versions précédentes

            10 jours plus tard

            Garrus As tu déjà eu l’erreur ci-dessous sur Plex avec Gsuite ? Ça fait deux fois que ça me fait ça.
            J'ai deux serveur Plex avec scan périodique de 15 mins.

            [Player] A Shaka error occurred: 1001 (Réseau); the player will attempt to recover

            [Edit] : Bon c'est un ban de l'api ..

              5 jours plus tard

              D4rk Salut. Non perso j'ai jamais vu cette erreur.

              • D4rk a répondu à ça.

                Garrus Ça a durée grand max 8h. J'ai eu ça a deux reprise.

                14 jours plus tard

                obscur Ouais la V5, j'ai deux serveurs qui index sur le même stockage.

                Le problème vient plutôt du fait d'utiliser deux serveurs non? Ce qui augmente considérablement le nombre et la rapidité des requêtes.

                J'ai supprimé au maximum les requêtes, enlever le "hardlink" de sonarr et radarr pour le partage de transmission. Enlever le scan périodique aussi, et utiliser plutôt le script sur mon post. Maintenant plus qu'à voir.

                  D4rk N'oublie pas que tu peux lancer un scan à chaque ajout d'un fichier dans le dossier GDrive. J'utilise FileBot et non les outils natives de sonarr et radarr, mais chez moi FileBot copie directement dans le dossier GDrive, et une fois le transfert terminé, il lance le rafraîchissement via l'url.
                  Ainsi, le scan ne s'effectue que quand il y a un nouveau fichier et pas inutilement chaque heure. Parfois, il y a plusieurs jours sans ajout de fichiers.

                  • D4rk a répondu à ça.

                    zorgade Ha, je vais essayer filebot du coup. Chez moi c'est Sonarr et Radarr qui envoie sur Gdrive.

                    Ici pour les commandes plex via url zorgade
                    et ci-dessous un exemple pour les films. Filebot crée un hardlink dans un fichier temporaire "Movies", le script se lance chaque X minute. Si il y a un dossier dedans, le script se lance. J'utilise rclone pour déplacer le fichier et quand le déplacement est terminé (le dossier "Movies" est donc dorénavant vide), je lance un scan de la bibliothèque Plex correspondante via URL et Token.

                    #!/bin/bash
                    LOG_FILE=/home/<user>/logs/syncAMC.log
                    path=/home/<user>/torrents/Enc_media
                    
                    exec >> $LOG_FILE 2>&1
                    
                    echo ====================
                    echo "$(date)"
                    
                    if [ -e /home/<user>/syncAMC.lock ] || [ -e /home/<user>/sync.lock ]
                    then
                    echo "Rclone ou FileBot deja lance, on quitte"
                    exit
                    fi
                    
                    # Création d'un fichier .lock pour ne pas lancer deux instances en parallèle
                    touch /home/<user>/syncAMC.lock
                    
                    #Movies
                    if [ "`ls $path/Movies`" != "" ]
                    then
                    
                    echo "Lancement de la syncronisation Movies --> GSuite"
                    /usr/sbin/rclone copy -v  $path/Movies GSuiteEnc:Movies --transfers=5 --checkers=5 --log-file $LOG_FILE
                    wait
                    
                    curl "http://localhost:32400/library/sections/11/refresh?X-Plex-Token=TokenPLEX"
                    wait
                    
                    else
                    
                    echo "PAS de syncronisation Movies"
                    fi
                    

                    D'après ce que j'espère vois ton script refresh la library entière pour les films non ?

                      D4rk oui, la bibliothèque entière, mais seulement lors d'un ajout.
                      Et si tu utilise deux serveurs, tu peux fixer des heures fixes pour le refresh de la librairie. Ca évitera de faire trop souvent des appels à l api.
                      Tu peux très bien continuer à utiliser le post process de sonarr et radarr, juste créer un petit script qui te lance l url de refresh 1 fois par jour si tu veux pas te casser la tête avec filebot. A minuit sur le serveur 1 et à 7h sur le serveur 2 par exemple, pour espacer les requêtes

                      D4rk

                      "Le plexpass sert uniquement pour plexCloud et le partage de ton serveur avec des amis."

                      Pas besoin du passPlex pour partager les média avec les amis 😃

                      • D4rk a répondu à ça.