• Docker
  • Maintien d'une image docker rutorrent pour la communauté mondedie

Cyprien Merci pour ton retour.
Qu'appelles tu un link rtorrent dans le container sonarr? jusqu'à présent je configurais le host et c'est tout.
et le host se limitait au nom du container.
Après concernant NGINX dans le container, là cela dépasse ma compréhension et mes cordes, je sais à quoi cela sert mais par contre au delà ca devient du chinois pour moi.

    christophebe Si tu mets le nom du container Rtorrent sur ta config sonarr ou radarr, il a besoin de faire le lien entre le nom et l'adresse ip du container. Donc quand tu lances ton docker radarr, il faut lui renseigner cela. Par exemple docker run Machin/radarr --link NomContainerRtorrent:NomQueTuMetsDansLaCOnfigRadar

    ou en docker compose:
    links:

    • NomContainerRtorrent:NomQueTuMetsDansLaCOnfigRadar
      Désolé si c'est pas très clair

    Cyprien Merci, t'es un chef.
    Effectivement en modifiant l'url path en RPC et non RPC2 cela fonctionne parfaitement.
    Un grand merci

    Magicalex Coucou,

    Je viens de tester sur un raspberry 4 et un Nuc ,
    Toujours ce problème de manifest quand j essaye de pull une des images.

    $ docker pull mondedie/rutorrent:filebot
    filebot: Pulling from mondedie/rutorrent
    no matching manifest for linux/arm/v8 in the manifest list entries

      popov_2 Je peux avoir le retour des deux commandes?

      docker info  -f '{{.OSType}}/{{.Architecture}}'
      uname -a

      Normalement c'est linux/arm64/v8, c'est pour ça que je t'ai demandé sur quel machine tu installes l'image.
      Quand je dit la machine, c'est quelle marque de pc? son modèle? etc.

      Essaye de faire des recherches de ton coté ça fait deux fois que tu me retournes la même erreur...

        Magicalex

        J'ai rien trouvé de bien concret , c est pour cela que je te fais remonter l erreur.

        $ docker info -f '{{.OSType}}/{{.Architecture}}'
        linux/aarch64
        pi@raspberrypi:~ $ uname -a
        Linux raspberrypi 4.19.93-v8+ #1286 SMP PREEMPT Mon Jan 6 13:29:56 GMT 2020 aarch64 GNU/Linux


        C est juste si tu avais une idée, sinon j utiliserai une autre image.
        Merci pour ton boulot en tous cas 😉

        Tu peux essayer ça?

        docker pull mondedie/rutorrent:arm64-filebot

          Salut,

          J'ai un petit soucis peut-être que vous avez la solution. travis-ci.com a un timeout à 50min au delà de ce temps le build s'arrête.
          Or depuis que j'utilise buildx les build excède 50min (je build 4 images en 1fois)

          Vous connaissez un CI comme travis qui autorise des builds de plus de 50min?

          hello,
          encore moi
          toujours dans mes tests sur le container et j'ai une petite question
          est ce normal selon vous que lorsque je lance des DL (2-3), la charge CPU monte en fleche au point de bloquer tout simplement l utilisation du serveur: impossible d acceder au portail web rutorrent, ni aux autres services, une fois les DL finis le CPU chute a 0-1% et tout redevient accessible/normal.
          merci de vos retours.

          ps: suis sous debian

            sans avoir une bete de course je pense qu il fait l'affaire:
            Hardware specifications
            CPU: Intel Xeon E5-1650 - 3.2 GHz - 6 core(s)
            RAM: 32GB - DDR3
            Du coup est ce un probleme lie au container? lie a docker ou lie a ma debian?
            j ai fouine sur des forums et je vois plusieurs cas possibles: souci lie a libcurl, overlay2 ....

            christophebe je crois que j'avais déjà eu un soucis similaire et que ça venait de mon disque dur qui commençait à lâcher. J'étais chez OneProvider.
            Par contre, chez moi l'image "consomme" beaucoup de RAM lors d'un téléchargement. Je peux monter facile à 5Go consommé quand je regarde l'interface docker de Synology. En regardant de plus près c'est pas vraiment de la RAM qui est consommé mais de la mémoire cache. Le problème c'est qu'à un moment j'ai l'impression que ça libère pas la RAM et mon NAS plante :/ (redémarre). BIen que j'ai mis la limitation de ressource à 2Go pour rutorrent, sur l'interface Docker ça monte à plus de 2Go.

            Quelqu'un aurait une idée pour limité la mémoire prise en cache sur ce container ? Peut être qu'il y a un paramètre rtorrent mais je ne sais pas.

            Merci

              Salut, petite mise à jour.

              Maintenant l'image est disponible pour 4 architectures : linux/386, linux/amd64, linux/arm/v7, linux/arm64
              Je ne compile plus rtorrent. Je passe directement par les dépôts alpine. Pour des raisons de temps de compilation.
              Avec toutes les architectures il faut build maintenant 8 images.

              J'ai corrigé la suggestion de christophebe et on peut même utiliser son propre script posdl il suffit de le mettre dans /config/filebot

              Je n'utilise plus travis-ci pour build les images, mais github action. Les jobs peuvent être exécutés pendant 6h contre 50min sur travis.

              Aerya J'ai désormais 10Go. J'ai ajouté cette RAM récemmennt:

              J'ai lu des choses qui indiquent que ça pourrait venir de là.

              Magicalex

              Ça marche mais avec la commande:

              docker pull mondedie/rutorrent:filebot

              Je ne sais pas si tu as modifié quelque chose mais merci beaucoup !

                4 jours plus tard

                Salut.Déjà énorme merci pour ce projet excellent. C'est pile poil ce qu'il me faut. Je suis en train de refaire mon serveur, j'utilisais celui de ex_rat mais comme je passe tout en docker celui ci me va nickel.
                Petite question histoire de faire mon gros noob, est ce qu'il est possible de créer plusieurs sessions d'un utilisateur plutôt que plusieurs utilisateurs sur une session? Est ce qu'il y aurait une automatisation de prévue?
                Et sinon, je me demande, si on crée plusieurs docker rutorrent, avec filebot, pour chaque session, est ce que la licence ne va pas ce faire ban?
                Encore merci, et désolé de pas tout comprendre ^^