❗️Toto je původní verze internetového fóra ISPforum.cz do února 2020 bez možnosti registrace nových uživatelů. Aktivní verzi fóra naleznete na adrese https://telekomunikace.cz

MPLS sit & RouterOS

Návody a problémy s konfigurací.
Uživatelský avatar
hapi
Příspěvky: 12989
Registrován: 18 years ago

Re: MPLS sit & RouterOS

Příspěvekod hapi » 13 years ago

Kód: Vybrat vše

Na MK450G je zapnuté MPLS na WAN, ping je OK, ale nenačteš třeba na speedtestu.cz javu v okně atd. Vypneš MKPLS na WANU MK450G a internet jede. Opět to narazí na velikost L2MTU 1520 na MK 450G.


tak se snad bavíme o chybě v RB450G ne? Všechno v trase ti jede ale vyhnije to jako mě na RB450G.
0 x

Uživatelský avatar
hapi
Příspěvky: 12989
Registrován: 18 years ago

Příspěvekod hapi » 13 years ago

co bych prosimtě čet pozorněji? přečet sem si že když zapneš MPLS na RB450G, tak ti nejede net, respektive jede to jak z hnojem. Když na RB450G vypneš MPLS tak to jede a ty mi tvrdíš že problem je na straně RB750GL? V obou trasách máš 450G a když u obou vypneš MPLS (u prvního příkladu to uděláš ze strany 750GL která vypne MPLS i u 450G ) tak se net rozjede.

Jinak testuj 1500bajtovym pingem, okamžitě poznáš co je v háji. Já si taky říkal ok, jede a pak neprošel 1500bajtovej paket čímž je všechno MPLS na draka v podání mikrotiku. Taky jsem si říkal že to jelo ok a druhej den ráno průser v rychlostech.
Naposledy upravil(a) hapi dne 07 Jan 2012 12:46, celkem upraveno 1 x.
0 x

Uživatelský avatar
hapi
Příspěvky: 12989
Registrován: 18 years ago

Příspěvekod hapi » 13 years ago

vyřešen čím? downgradem?
0 x

Majklik
Příspěvky: 1949
Registrován: 14 years ago

Příspěvekod Majklik » 13 years ago

Fakt bych rád věděl, co s tím provádíte. :-)
RB450G, ROS5.11, firmware 2.29.
Nastaveno všude MPLS MTU na 1520 (max co dá RB450G). Nahozeno MPLS, řizení toků a VPLS. MTU 1500 jde jak má. Pokud poěllu data skrz VPLS tunel řízený TEčkem, tak packet sniffer ukazuje odesílání a příjem paketů dlouhých 1534 bajtů (i s MAC hlavičkou)....
Je jedno, zda je zapnuto switch all ports nebo ne (v tom případě ether1 dá 1626). A minimámě ether1-3 jedou.
0 x

Uživatelský avatar
hapi
Příspěvky: 12989
Registrován: 18 years ago

Příspěvekod hapi » 13 years ago

tak popis nastaveni.
0 x

Majklik
Příspěvky: 1949
Registrován: 14 years ago

Příspěvekod Majklik » 13 years ago

A od čeho chceš nastavení konkrétně, jak je ta 450G?
A nechceš demo přístup? Můžu asi zpatlat pár krabiček doma na stole, udělat na tom jednu OSPF areu, dát na to MPLS, co by jsi na tom chctěl vidět? Asi jich mám dost na to, aby tam byla nějaká smyčka a víc cest. Co tě zajímá - holé MPLS (IP akcelerátor), VPLS, TE pro přímé IP i pro VPLS (rezervace kapacity statická, dynamická rezervace s CSPF, vícenásobná cesta...)? Víc toho asi ROS neumí. :-)
Jsem schopen do toho narvat 411AR, 450G, 493, 493AH, 750, 1100AH, 1100AHx2 a možná i 711. Na většině je asi teď 5.11.
0 x

Uživatelský avatar
hapi
Příspěvky: 12989
Registrován: 18 years ago

Příspěvekod hapi » 13 years ago

pouze akcelerátor i když co jsem viděl tak na rbčkách mpls nemá vůbec smysl když v drtiví většině cpučko dostane na kolena irq.

Stačí když dáš export mpls.
0 x

Majklik
Příspěvky: 1949
Registrován: 14 years ago

Příspěvekod Majklik » 13 years ago

hapi píše:pouze akcelerátor i když co jsem viděl tak na rbčkách mpls nemá vůbec smysl když v drtiví většině cpučko dostane na kolena irq.

Stačí když dáš export mpls.


Myslím, že smysl má. Ano, nelze konkurovat velkým krabicícm nebo na tom nabíet služby grantované na sekundy a spol, ale funguje to a minimálně pro to rozkládání zátěže v síti to použít jde (pokud máš mezi lokalitama víc cest).

Jak je libo:
/mpls
set dynamic-label-range=16-1048575 propagate-ttl=yes
/mpls interface
add disabled=no interface=ether1 mpls-mtu=1520
add disabled=no interface=ether2 mpls-mtu=1520
add disabled=no interface=ether5 mpls-mtu=1520
add disabled=no interface=dummy0 mpls-mtu=1520
/mpls ldp
set distribute-for-default-route=yes enabled=yes hop-limit=255 loop-detect=no \
lsr-id=192.168.254.3 path-vector-limit=255 transport-address=192.168.254.3 \
use-explicit-null=yes
/mpls ldp interface
add accept-dynamic-neighbors=yes disabled=no hello-interval=5s hold-time=15s \
interface=ether5 transport-address=0.0.0.0
add accept-dynamic-neighbors=yes disabled=no hello-interval=5s hold-time=15s \
interface=ether1 transport-address=0.0.0.0
add accept-dynamic-neighbors=yes disabled=no hello-interval=5s hold-time=15s \
interface=ether2 transport-address=0.0.0.0
/mpls traffic-eng interface
add bandwidth=88Mbps blockade-k-factor=3 disabled=no igp-flood-period=3m \
interface=ether1 k-factor=3 refresh-time=30s resource-class=0 te-metric=1 \
use-udp=no
add bandwidth=980Mbps blockade-k-factor=3 disabled=no igp-flood-period=3m \
interface=ether2 k-factor=3 refresh-time=30s resource-class=0 te-metric=1 \
use-udp=no
add bandwidth=980Mbps blockade-k-factor=3 disabled=no igp-flood-period=3m \
interface=ether5 k-factor=3 refresh-time=30s resource-class=0 te-metric=1 \
use-udp=no
0 x

Majklik
Příspěvky: 1949
Registrován: 14 years ago

Příspěvekod Majklik » 13 years ago

Tak jsem si tak zkoušel, co už umí RouterOS z věcí kolem MPLS a seskládal si takový pokus. Kdo chce, může mrknout, pár dní to poběží, než ten šrot upotřebím někde jinde...
Je to 13 ks RBček, většina ROS5.12, dostupné na adrese 212.80.82.17:7001 až port 7012, login: demo/mpls

Vydrátováno dle přiloženého obrázku. Kdo bude mít otázku, může septát, občas zkusím odpovědět.

Stručně:
Síť tvoří R1-R12, kde R1 a R2 jsou hraniční routery, mající každý jednu linku k uplinku R0, baví se pomocí BGP, kdy k R1/2 je propagován jen defualt gate a ven "veřejný" segment 172.21.1.0/24, síť uvnitř používá jako neveřejný 192.168.0.0/16. BGP nastavneno tak, že vše jde ven po trase R1-R0, při zdechnutí R1 přebírá R2 (active/backup konfigurace). Uvnitř sítě jede OSPF, kde backbone jde přes všechny linky mezi R1 až R12, okrajové konce jsou arei zvlášť. BGP na R0~R2 se stará jen o IPv4.
Specifický segment je 192.168.255.0/24 z kterého se dávají /32 IP routerům na loopback (bridge-routerid) a na tyto IPčka je pověšen router id pro OSPF, BGP, LDP a použito jako adresy pro VPLS tunely a TE kanály.

MPLS je aktivní na všech linkách v backbone mezi R1~R12. V podstatě zapnuté LDP na všech routerech a propojovacích linkách, konfigurováno s MPLS L2MTU 1520 bajtů (limit daný RB450G). Je povolena propagace TTL z IP záhlaví do MPLS záhlaví, takže traceroute vypisuje přes co to jde s jakýma MPLS značkama.
Toto stačí pro to, aby začlo fungovat to nejprimtivnější - MPLS pro transport IPv4 paketů, obvkyle zvané IP akcelerace, že switching je o něco rychlejší než routing (ale přijdu tím o možnost něco dělat uvnitř MPLS sítě s pakety na zákaldě obsahu, MPLS switche do toho nevidí). Má smysl samotné řešit, pokud by bylo opravdu hodně RBček zřetězeno, dá se tím nahnat něco na odezvách, pokud hnedka nechci nasazovat výkonější šrot (nebo chci zakrýt strukturu sítě, s vypnutou propagací TTL pak trceroute vidí jen první a poslední router v MPLS oblasti). ROS nezvládá MPLS transport pro IPv6, také neumí využít ECMP (ale i to řada dalších platforem vyžaduje specificky konfigurovat, aby se vytěžovaly všechny ECMP trasy).

Další level - VPLS tunel sestavovaný pomocí LDP protokolu (/interface vpls) . V podpstatě to, co dělá EoIP, tak VPLS udělá virtuální Ethernet kanál mezi dvěma body. Řekněme, že chci přes naší krásnou routovanou síť propašoat PPPoE, rozhodl jsem se, že klientům, co chtějí veřejné IPčko (aka 172.21.1.192/28) ho dopravím přes PPPoE. Tak jeden otrava je na R6 a druhý na R7 (je tam připíchlý klasik Ovis WL5460AP a Draytek 2900 krám jako koncové routery zákoše). PPPoE servery mám dva na R1 a R2 nastaveno tak, aby se klient chytil k tomu, co mu první odpoví (rozkládání zátěže a i záloha výpadku jednoho). Na R1,2,6,7 je bridge-pppoe, kde je buď přilepen PPPoE server (R1/2) nebo klient port (R6/7), bridge propojeny dvěma vpls tunely (vpls-pppoeX). Fakticky to tvoří smyčku, ať to nelítá dokola je řešeno horizontováním na bridge (nastaveno tak, ať data tečou jen ve směru klient-server a klienti se vzájemně neslyší - nechceme vtípky s podstrčeným PPPoE serverem). Ať je klient správně zaroutován zvnějšku se postará OSPF, že zapropaguje klientovu adresu z daného PPPoE serveru. Tohle VPLS je řízeno pomocí LDP protokolu. Viz na koncových bodech v /mpls ldp neighbor print mimo fyzických sousedů jdou vidět i koncové body tunelu s kterými se ustanoví LDP spojení, ať si dohodnou jakou MPLS značku přiřadí tunelu.

Hrajeme si na velkou síť - VPLS řizené pomocí BGP (dle RFC, na Cisco variantu kašleme, ale je to obdobné). OK, přišel otrava, že má dvě pobočky a k tomu ještě babu účetní a chce, ať mu uděláme L2 síť mezi těma třemi místy, tkaový klasický trojúhelník. Zrovna nám leží u routerů R3, R7 a R9. Šlo by dle předchozího, namlátime bridge, připojíme koncové ethernet porty ke klientovi a namlátíme mezi to ty 3 VPLS tunely. Zkusíme, ať to tunely dělá samo, dle specifikace kde co chci propojit, kde se konce tunelů hledají přes BGP.
Na podporu (hrajeme si na velkou síť) si nahodíme 2 BGP routery (pro zálohu) v režimu reflektoru (co přijde z jednoho připojeného routeru odešlu všem ostatním připojeným) na R4 a R5 a na tyto routery se musí obracet BGP routery puštěné na koncových místech tunelů z R3/7/9 (v tomto případě je reflektorování kanón na vrabce, míň práce by bylo propeerovat ty BGP přímo a ještě míň použít LDP variantu). Takže BGP puštěno, nastaveno, že se starají jen o VPLS (l2vpn).
Spáchá se oblíbený bridge (bridge-vip-X) na R3/7/9 a k tomu připojí koncový ethernet a dále v MPLS-VPLS-BGP VPLS (/interface vpls bgp-vpls) definuje koncový bod. Jako ID jedné skupiny tunelů mám zvoleno 379:0 a pak nastaveno pod čím se má tento bod propagovat (např na 7 je 379:7) a z jakých konců naimprtovat spojení (z 379:3 a 379:9) a na jaký bridge to má napojit (bridge-vip-X) a jak nastavit horizonty. Když se to přes BGP vykecá, tak si to automaticky založí a udržuje dané VPLS tunely a připojí na brodge. Pohoda.

Komplikujeme to o další level - řizení datových toků VPLS tunelu. Otrava měl něco zlatých nugetů a chce, ať mezi místy A a B (R7-R3) má pro sebe 500 Mbps a do C jen něco málo, baba stejně používá jen RDP. Jak je libo, nasazení traffic engeneeringu - zjednodušene definuje cestu, kudy mají data téct a případně i omezuje a počítá kolik ješt může protéci něčeho jiného a dle toho to i umí routovat.
Předpokladem pro toto je, že se jednotlivým linkám přiřadí jakou mají datovou kapacitu (/mpls traffic-eng interface ) a z ní se postupně ujídá dle toků.
Takže se na R3 a R7 vyrábi definice toku te-vipX (/interface traffic-eng). Tomuto toku nastavuji, že má rezervovat po cestě si 400 Mbps (zas tolik negetků nedal), ale řezat na 500 Mbps (bandwith limit 125%). Tok používá nějaké cesty, buď dynamicky zaroutované nebo natvrdo předpesáné, případně volně předepsané. Nepářeme se s tím chceme, aby to natvrdo šlo cestou R3-R4-R7 (příčka přes routery) jako primární cestou (tp-vip-Z-X-Y-primary) a jen když cesta nebude dostupná, má to vzít někudy jinudy, ale at to jde buď přes R5 nebo R4 (dle toho, co bude zdechlé - tp-vip-Z-X-Y-backup a -backup2). Cesty jsou definovány v /mpls traffic-eng tunnel-path a přiřazené k danému te-vip-A nebo -B. Definice toku je vždy jendosměrný, proto se musí definovat oběma směry, pokud se má uplatňovat v obou směrech (což se hodí, můžeme někdy poslat každý směr jinudy a využít tak linek nebo výkonu routerků).
Další bod je vyřízení místa C, tomu stačí málo, takže použijeme tok (te-vip-C), který bude určen pomocí cesty (tp-cspf) routované protokolem CSPF (v podstatě rozšířená varianta OSPF, která bere v potaz kolik kapacity je rezervováno po cestě) s tím, že babě se na dané cestě rezervuje 5 až 20 Mbps a řezání provádí na 150% rezervace (takže ji to dá max 30 Mpbs). Kolik ji to aktuálně rezervuje se počítá dle toho, kolik toho přenášela v poslední minutě, když nic, ta ji to padne na těch 5 Mbps, když povalí dlouhý přenos, nastoupá na těch 20 a řezaných 30, trasa se najde dle toho, kudy bude zrovna volno (drží to aktuálně pěkně po R7-R11-R9 jedna a R3-R6-R9 druhá).
Že daný VPLS tunel je řízen nějakým TE tokem je dáno tím, když z routeru je definován TE se stejnou cílovou adresou, kam míří VPLS tunel, tak automaticky se přiřadí k TEčku (vidět v /interface vpls monitor pod položkou transport, když je tam IPčko, jde to pířmo routingem, když ID TE rozhranní, jde to přes něj). Trošku blbě se proto vyrábí, pokud mezi dvěma místy má jít víc různých tunelů různě řízeno (v ROSu se to dost blbě konfiguruje, ale v principu jde).

Asi nejzajimavější, opět řízení datového toku, ale místo VPLS toku řídíme tok IP dat. Což se zařídí snadno, definujeme TE tunel a do toho interface něco naroutuji, co tam namířím, to je neseno tunelem k jeho konci. Klasické využití je, že máme mezi dvěma body víc cest a chceme vytěžovat všechny. Při klasickém routingu to jde tou s nejmenší vahou, pokud to nenastavím pro aktivní ECMP. Zde můžu dosáhnout, že to jde tou nejlepší, dokud se to tam vejde a až ne, tak zapojí i další.
Máme definován tok pro dopravu dat ke koncovým sektorům sektorB až sektorG, které jsou připojeny na na R9 a R10 vždy 3 a definiju tok od routeru R1 (a identicky z R2), klasika, potřebuji usměrnit sosání lidí. Je to nastavneo tak, že těch 6 te-sektorA až te-sektorG je definováno na R1 i R2 současně, přičemž na každém je aktivní jen polovina, pokud jedou oba routery. Když jedne zdechne, tak všechny TEčka převezme přežívší (zajištěno pomocí master/slave skriptu na VRRP rozhranních vrrp-teX na R1 a R2).
Tok pro sektor B až D je definován tak, že každému sektoru se má rezervovat 40 Mbps a řezat na 50 Mbps. Řekněmě, že na R10 jsou tři sektory, které to dokáží krmit k lidem. Za normálního stavu je to transportováno z R1. Když se podívám po cestě, tak se to chvilkama přepíná, ale dva toky jdou přímo R1-R4-R10 a jeden R1-R3-R6-R10, protože R10 má dva 100 Mbps uplinky a do jednoho se tím pádme 120 Mbps zarezervovat nedá (pokud by se cestu nepovedlo nalézt, tak nebude aktivní a pakety potečou normálně dle toho, co vymyslí OSPF nejkrastší cesotu). Toto je statická rezervace, jiná varianta je, že se má rezervovat dynamicky dle aktuální ptřeby, to je případ sektorE až G, který je normálně odbavován z R2.
Řekněme, že na R9 máme něco lepšího a každý sektor umí vyžrat až 100 Mbps. kdybych to udělal jak pro B-D, tak se toky nesestaví, protože tam nemám tolik kapacity, jeden stovkový ethernet a dvě rádiové linky pochybné kvality. Rezervace se proto odvíjí dynamicky od měření v poslední minutě (průměrování po 30 sec), kdy se dynamicky měni pro jeden sektor 10 až 70 Mbps a řezání je o 25% výše. Když je klid, tak vše jde cestou R2-R3-R6-R9 a každý si drží 10 Mbps. Když se to rozjede, tak dle toho se natahuje rezervace, když se zaplní linka R6-R9, tak jeden tok jde jí přímo, druhý se dostane po R2-R3-R8-R12-R9 a třetí R2-R5-R7-R11-R9 a každý bude vyžírat max toho, co daná linka dovolí. Když ten, kdo drží trasu R6-R9 přestane čučet na porno a rezervace se sníží, tak se ostatní vrátí na tu linku, pokud se tam vejdou, případně méně sosající kanál to může i vytlačit na jinou linku.
Jen podotýkám, že je TEčkem řešen jen downolad ke koncovým sektorům, uplink se nechává volně na nejkratší cestě dle OSPF (šlo by nastavit tkaé, ale obvkyle není třeba).

K dokonalosti taky ROSu ještě toho spousta chybí, např TE lze jen uvnitř jedné OSPF arei, nejde udělat kanál přes hranici arei (je na to specifikace, ROS neumí, takže jedině musím skládat kanály za sebou nebo vše jen jenda area), není podpora pro fast reroute - když cesta zanikne, že něco umřelo, tak najití nové cesty je často na desítky sekund, s fast reroute jsou to desítky milisekund. Krásné by blyo autotunelování, kdy se TEčka zakládají automaticky a dle měření automaticky rozkládají toky do všech tras a mnoho dalšího, ale co by člověk za těch pár šupů chtěl. :-)


A toť zhuba vše, co ROS v dané oblasti umí.
Přílohy
MPLSdemo.png
MPLSdemo.png (123.71 KiB) Zobrazeno 3303 x
0 x

Uživatelský avatar
hapi
Příspěvky: 12989
Registrován: 18 years ago

Příspěvekod hapi » 13 years ago

dobrá a teď otázka proč všichni budeme nasazovat MPLS a tím je jestli se ulehčilo routerům nebo ne. Tady je jasně vidět že konfiguračně je to tak trochu ohavný a udržovat na síti další transportní vrstvu jenom přidělává vrásky na čele s nulovým efektem a datový toky si vesele ukusujou svojí porci cpučka a latence jsou nezměněny.

Sorry že ti nefandim a nefandim MPLS ale pokud to znamená žádný plus pro mk sítě tak je to prakticky jenom něco na chlubení.
0 x

Majklik
Příspěvky: 1949
Registrován: 14 years ago

Příspěvekod Majklik » 13 years ago

Můj názor je, že plošné MPLS v podání ROS není pro síť velkou síť (řekněme krajského a většího formátu), protože v tom chybí spousta věcí, aby to šlo slušně konfigurovat v takovém formátu.

Stále platí, že když klasický RouterBoard tráví většinou života obsluhou interruptů od síťovky, tak to stejné dělá v routované i MPLS síti. MPLS pak nahoní něco v té switvhovací části, ale u normálního RBčka se bavíme do 100 us na jeden RouterBoard. OK, pokud jich mám 20 za sebou, tak to už je vidět.
Jiná věc je, pokud to někdo staví na něčem na stylu PowerRouterů, tak to už jede svižněji a kupodivu jsou tací šílenci, co na takové kombinaci mají i síť přes půl USA (bylo by pěkné vědět, co za maba od SuperMicra v těch PowerRouterech je, protože Mikrotik se zavázal na nich testovat vydávané verze ROSu).

K čemu by to mohlo být řekněme takové menší síti, kde je to ukonfigurovatlené? Klasická situace - mám do lokality rádio 320 Mbps a daná lokalita přitom může mít chuť konzumovat více, jak se rozšiřuje. K tomu mám někudy delší cestou vedoucí do daného místa zálohu, která tam dopraví třeba 100 Mbps, ta normálně nepřišla ke slovu, dokud primární rádio nezdechlo. S pomocí MPLS a TE můžu nastavit, že jak se začne blížit zaplnění primární linky, tam se paralelně začne část dat dopravovat i tou záložní linkou a dostanu tam tím pádem něco přes 400 Mbps a nemusím hned řešit navyšování primární linky. Tohle je dle mého názoru nejrozumnější využití pro menší síť. Další varianta, propagovaná Mikrotikem, je používat VPLS místo EoIP tunelů, že menší režie, lepší odevy, ..., ale dokud mi těch tunelů nevznikne v síti tuna, tak asi nemá smysl řešit.
Samozřejmě můžu mít nechuť kvůli těmto dvěma případům zasrat celou síť MPLS a aby se switchoval celý provoz, není nic jednoduššího, než v LDP vrstvě nastavit filtry, které budou šířit MPLS značky jen pro adresy odpovídající routerům (řekněme v tom mém případě 192.168.255.0/24) a tím pádem MPLSkem nebude postiženo nic, vyjma těch loopbackovch adres na které pak definuji tunely a řízení toků, vše ostatní je normálně routováno.
0 x

Jano
Příspěvky: 6
Registrován: 13 years ago

Příspěvekod Jano » 13 years ago

Majklik, pomocou akeho programu ste vytvorili mapu MPLSdemo.png? Sorry za OT.
0 x

Majklik
Příspěvky: 1949
Registrován: 14 years ago

Příspěvekod Majklik » 13 years ago

0 x

CANOPA
Příspěvky: 103
Registrován: 16 years ago

Příspěvekod CANOPA » 12 years ago

Ahoj, prosil bych o radu s nastavenim. Mam jednoduchou mpls sit(ip akcelerace)+ vpls tunely. Nyni bych chtel vyzkouset TE(traffic eng). Mam 6 routeru zapojene v poradi:
1.trasa RX-R1-R2-RY
2.trasa RX-R3-R4-R5-RY

mezi R1 a R2 je radiovy spoj 100Mbps
mezi R3 a R4 i R4 a R5 je take radiovy spoj s kapacitou 100Mbps
Resim jak prenest mezi RX a RY kapacitu 200Mbps.
Na vsech routerech mam zaple mpls a pres /mpls traffic-eng interface prirazeny kapacity intefacu.
Chtel bych poprosit o radu, jak nastavim TE tak,
1) aby se mi zatez z bodu RX do RY rovnomerne rozkladala mezi trasu 1 a 2
2) aby se mi vytizila primarne trasa 1. a pri jejim zaplneni, se zacal provoz pridavat i na trasu 2.
predem diky za rady.
0 x
Petr S.

Majklik
Příspěvky: 1949
Registrován: 14 years ago

Příspěvekod Majklik » 12 years ago

Ad 1)
Jak moc znamená rovnoměrně? Tohle mnohem jednodušeji uděláš s OSPF, kde nastavíš obě cesty tak, aby v součtu měly stejnu cost a uplatní se ECMP a budou se na střídačku jednotlivé spojení rozhazovat na obě linky. Pokud nad tím už máš ale MPLS akceleraci, tak ROS implementace nepodporuje ECMP (řve se kvůli tomu na Mikroťáky už dlouho).
Nejde jednoduše udělat to, aby jeden VPLS tunel získal šířku 200 Mbps, že půjde naráz oběma trasama. Leda uděláš, že jedne směr jde 1. a zpět to jde trasou 2.
Pokud chceš to pro VPLS, tak řešení je, že se udělají 2 VPLS tunely, předepíše se každému trasa jednou linkou a na koncích se tyto tunely spojí dohromady pomocí bondu, kde budeš řídit politiku rozkládání (např LACP s MAC xorem, pokud je to L2 tunel pro Ethernet).
Pokud to chceš řešit pro routing, že za RY je třeba hromada klientů na A.B.C.0/24 a pro ně to chceš rozhazovat, tak principiálně tak:
a) definuješ dvě cesty, každá půjde jinou trasou:
/mpls traffic-eng tunnel-path add name=tp1 hops=R1:loose
/mpls traffic-eng tunnel-path add name=tp2 hops=R3:loose
To loose je podstatné, cesta je neúplná, ale dostatečná, aby bylo jané, koma to má jít. Při použití strict politoky by s emusela ta cesta vyjmenovat celá.
b) Definuješ dva toky, kde každý tok pošleš jednou cestou:
/interface traffic-eng add name=te1 to-address=RY primary-path=tp1 secondary-paths=tp2
/interface traffic-eng add name=te2 to-address=RY primary-path=tp2 secondary-paths=tp1
jeden tok jde první trasou a druhý truhou, když linka chcípne, oba toky se přestěhují na přežívší trasu.
A nyní na RX normálně do toho zaroutuješ ten traffic s použitím ECMP:
/ip route add dst-address=A.B.C.0/24 gateway=te1,te2
Bude to dělat rozhazování per spojení na ty dvě trasy stejně, jak dělá klasické OSPF, když je využto ECMP.

Ad 2)
Obvykle se zákazníci za RY rozdlělit minimálně na dvě skupiny., třeba na A.B.C.0/25 a A.B.C.128/25. Čím víc skupin a tunelů, tím lépe se to rozdělí, ale je to na hlavu pak (Už by se ROS měl naučit autotunneling). Ale jd epoužít i ten ECMP routing jak v předchozím bodě.
Definuje se jenda dynamická cesta (CSPF=OSPF doplněné o braní v potaz rezervace linky):
/mpls traffic-eng tunnel-path add name=tp0 use-cspf=yes
A opět definuješ dva tunely, které používají dynamické cesty:
/interface traffic-eng add name=te1 to-address=RY primary-path=tp0 bandwidth=10000000 auto-bandwidth-range=5000000-95000000 auto-bandwidth-avg-interval=10s auto-bandwidth-update-interval=1m auto-bandwith-reserve=20 reoptimize-interval=1m
/interface traffic-eng add name=te2 to-address=RY primary-path=tp0 bandwidth=10000000 auto-bandwidth-range=5000000-95000000 auto-bandwidth-avg-interval=10s auto-bandwidth-update-interval=1m auto-bandwith-reserve=20 reoptimize-interval=1m
A routing n RX:
/ip route add dst-address=A.B.C.0/25 gateway=te1
/ip route add dst-address=A.B.C.128/25 gateway=tte2
Mělo by to fungovat tak, že při startu se rezervuje pro každý tunel 10 Mbps (bandwidth=), ale neomezuje, jde zapnout (bandwidth-limit=), pak se měří, kolik tím teče dat (průměry za 10 sec) a každou minutu přepočítává kolik potřebuje. S tím, že se rezervuje o 20% víc, než se naměřilo (auto-bandwith-reserve=20). Rezervace se může pohybovat v limitu 5 až 95 Mbps (auto-bandwidth-range=). Normálně by oba toky měly jít nejkratší trasou dle OSPF, taže asi RX-R1-R2-RY. V okamžiku, kdy požadavek na rezervaci těch dvou toků překročí co ta trasa snese, tak dojde k přesunu jednoho toku na jinou trasu (pokud je k dispozoci). Když se naopak první trasa uvolní, sestěhuje se to zpět (reoptimize-interval). Pomocí priorit se dá řídit, který tunel je výsadnější a další blbosti.

Připomínám, že TE tunel je jendosměrný, pokud chci řídit tok i opačným směrem RY->RX, je třeba to patřičně opbráceně zopakovat.
0 x