high availability in disaggregated networks
play

High Availability In Disaggregated Networks Saurav Das - PowerPoint PPT Presentation

High Availability In Disaggregated Networks Saurav Das Principal Architect, ONF With contributions from many others Outline Example Disaggregated Network Open-source, SDN-based


  1. High ¡Availability ¡ ¡ In ¡Disaggregated ¡Networks ¡ Saurav Das Principal Architect, ONF ¡ With contributions from many others … ¡

  2. Outline ¡ Example ¡Disaggregated ¡Network Open-­‑source, ¡SDN-­‑based ¡ ¡ Datacenter ¡Leaf-­‑Spine ¡Fabric ¡ ¡ High ¡Availability ¡in ¡Disaggregated ¡Networks ¡

  3. DisaggregaGon ¡1/2 ¡– ¡Bare-­‑metal ¡+ ¡Open-­‑Source ¡ Spine ¡Switch ¡ Leaf/Spine ¡Switch ¡SoFware ¡Stack ¡ White ¡Box ¡Switch ¡ GE ¡mgmt. ¡ to ¡controller ¡ OpenFlow ¡1.3 ¡ Accton ¡6712 ¡ Indigo ¡OF ¡Agent ¡ 32 ¡x ¡40G ¡ports ¡downlink ¡to ¡leaf ¡switches ¡ OCP Software OF-­‑DPA ¡ Leaf ¡Switch ¡ (ONL,ONIE) 8 ¡x ¡40G ¡ports ¡uplink ¡to ¡different ¡spine ¡switches ¡ BRCM ¡ASIC ¡ ECMP ¡across ¡all ¡uplink ¡ports ¡ OCP Bare Metal Hardware White ¡Box ¡Switch ¡ OCP: ¡Open ¡Compute ¡Project ¡ GE ¡mgmt. ¡ Accton ¡6712 ¡ ONL: ¡Open ¡Network ¡Linux ¡ ONIE: ¡Open ¡Network ¡Install ¡Environment ¡ BRCM: ¡Broadcom ¡Merchant ¡Silicon ¡ASICs ¡ ¡ 24 ¡x ¡40G ¡ports ¡downlink ¡to ¡servers ¡ OF-­‑DPA: ¡OpenFlow ¡Datapath ¡AbstracUon ¡

  4. DisaggregaGon ¡2/2– ¡Bare-­‑metal ¡+ ¡Open-­‑Source ¡+ ¡SDN ¡ Access & Trunk VLANs ONOS Cluster IPv4 & IPv6 & MPLS SR IPv4 Multicast (PIM) DHCP relay (IPv4) vRouter BGP/OSPF (ext.) L2 ¡bridged ¡ L3 ¡routed ¡ IPv4 ¡mulUcast ¡

  5. Fabric ¡ASIC ¡Pipeline * ¡(BRCM’s ¡OF-­‑DPA) ¡ * Simplified view Why ¡OF-­‑DPA? ¡ Multi- cast Allows ¡programming ¡of ¡all ¡ Routing Table MPLS Phy OF 1.3 flow-­‑tables ¡& ¡port-­‑groups ¡ Label Port L3 Group via ¡OpenFlow ¡1.3 ¡ ECMP OF 1.0 MPLS Phy Group Label Port Unicast Group Routing Table Termin- L2 Ingress ACL Phy Interface Phy Vlan ation L3 Port Policy Group Port Port Table MAC Mcast Table Table Table Group L2 Phy Interface Group Port MPLS MPLS Table Vlan 1 L2 L2 Phy Interface Table Port L2 Port Group Table Flood Group L2 Phy Interface Achieves ¡Dataplane ¡Scale ¡ Port Group Bridging Table 5 ¡

  6. Classic ¡SDN ¡Myths ¡ 1. ¡Dataplane ¡packets ¡need ¡to ¡go ¡to ¡controller ¡ ¡ ¡ ¡ ¡ ¡Reality: ¡ApplicaUon ¡designs ¡mode ¡of ¡operaUon! ¡ ¡ SDN Controller • Fabric ¡control ¡applicaUon ¡designed ¡such ¡that ¡dataplane ¡ packets ¡never ¡have ¡to ¡go ¡to ¡the ¡controller. ¡ 2. ¡Controllers ¡are ¡out-­‑of-­‑net ¡(management ¡staUons) ¡ ¡ Switch ¡ Switch ¡ Switch ¡ ¡ ¡ ¡ ¡ ¡Reality: ¡Controllers ¡are ¡Network ¡Elements ¡(NEs)! ¡ • Need ¡to ¡design ¡for ¡redundancy ¡and ¡scale ¡to ¡achieve ¡ producUon ¡readiness ¡

  7. Outline ¡ Example ¡Disaggregated ¡Network ¡ Open-source, SDN-based ¡ Datacenter Leaf-Spine Fabric High ¡Availability ¡in ¡Disaggregated ¡Networks ¡ Control ¡plane ¡redundancy ¡ • Data ¡plane ¡redundancy ¡ • Combined ¡data-­‑plane ¡& ¡control-­‑plane ¡failure ¡recovery ¡ ¡ • Dual-­‑homing ¡servers ¡ • vRouter ¡HA ¡ • Headless ¡fabric ¡ •

  8. Redundancy ¡in ¡Networking ¡ Doubled Core Switches; “Cisco Normal Form” PE Core Spanning tree used Standard Cisco Design. 1 + 1 redundancy Aggregation CE ToR switches PE In most of networking • 2 is a golden number ( 1+1, 1:1, N:1 ) • Acceptible risk/reward – what happens when both routers/switches die – customer network down – low probability, unlikely event 8 ¡

  9. SDN ¡Controller ¡ Multicast Overlay vRouter vOLT Underlay Control Control Control Control Control ONOS ¡Controller ¡Cluster ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ Open ¡Source ¡ SDN-­‑based ¡ Bare-­‑metal ¡ • Tend to show SDN controller as out-of-the-box White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ Router ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ Metro ¡ White ¡Box ¡ White ¡Box ¡ • But then it’s treated like a management system • As a workstation outside of the network. OVS OVS OVS OVS OVS R,E,M-­‑ VNF vSG VNF VNF Access ¡ VNF • No management system is HA – if it dies, reboot it VNF vSG VNF VNF VNF VNF VNF VNF VNF vSG • In the meantime network should still work! 3

  10. Reality: ¡Controllers ¡are ¡NEs ¡ Need to think of SDN Controller as Network Element (NE) • And like most networking solutions to redundancy, some SDN solutions do 1:1 • ONOS does much much more • 3-way, 5-way, 7-way redundancy • Bonus: scales the same way • Spread instances around in DC racks – N-Way redundancy ONOS ¡Controller ¡Cluster ¡ • Unlikely event that they all die simultaneously - there are bigger issues if that happens • Can design for headless mode White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ Open ¡Source ¡ SDN-­‑based ¡ Bare-­‑metal ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ Router ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ White ¡Box ¡ Metro ¡ White ¡Box ¡ White ¡Box ¡ OVS OVS OVS OVS OVS R,E,M-­‑ VNF vSG VNF VNF Access ¡ VNF VNF vSG VNF VNF VNF VNF VNF VNF VNF vSG 3

  11. ONOS ¡N-­‑Way ¡Redundancy ¡ M = Master B = Backup Switches simultaneously connect to several controller instances. B B M only 1 controller instance is master, B M B several other instances are backups Mastership is decided by controllers M B B M B B Switches have no say Controller instances M M B B B B B M M B B B simultaneously connect to several ONOS ONOS ONOS ONOS ONOS switches. Instance 1 Instance 2 Instance 3 Instance 5 Instance 4 Any controller instance can be master or backup for any switch Spreading mastership over controller instances contributes to scale

  12. ONOS ¡N-­‑Way ¡Redundancy ¡ M = Master B = Backup R = Retry Switches simultaneously connect to Losing controller instances several controller instances. M B R redistributes switch mastership only 1 controller instance is master, M R B several other instances are backups Switches continue to Mastership is decided by controllers M B R R M R retry lost connections Switches have no say Controller instances Management M M B M B B M simultaneously watchdog can connect to several reboot lost ONOS ONOS ONOS ONOS ONOS switches. controller Instance 1 Instance 2 Instance 3 Instance 5 Instance 4 Any controller instances instance can be master or backup for any switch Spreading mastership over controller instances contributes to scale

  13. State ¡Synch: ¡AuthoritaGve ¡State ¡ State: ONOS instances & apps ONOS actively synchronize with • Network Topology Instance 2 each other using state-of- • Network Configuration the-art, fault-tolerant • Mastership Assignment ONOS ONOS distributed systems • FlowRules / Groups Instance 1 Instance 4 algorithms • Resource Allocations ONOS ONOS • Intents To the external world the Instance 3 Instance 5 • And many more cluster behaves like a single logical entity Observe Program/Enforce • FlowRules • Groups • Liveness information (up/down) • Statistics • Virtual Ports • Mastership

  14. ONOS ¡Cluster ¡Features ¡ • Failures are the rule not exception . • All critical information is 3-way replicated and persisted . Simple configuration change to enable even higher degrees of replication (if needed). • Logically consistent view of replicated state via state of the art distributed consensus and synchronization protocols. • Raft Consensus for Resources, Mastership, Network Config, … • Primary/Backup for Flow Rules • Optimistic Replication for Topology, Data plane stats, … • Failure handling is fully automated . • Workload is evenly distributed . When one node fails, others take over its responsibilities

  15. Outline ¡ Example ¡Disaggregated ¡Network ¡ Open-source, SDN-based ¡ Datacenter Leaf-Spine Fabric High ¡Availability ¡in ¡Disaggregated ¡Networks ¡ Control ¡plane ¡redundancy ¡ • Data ¡plane ¡redundancy ¡ • Combined ¡data-­‑plane ¡& ¡control-­‑plane ¡failure ¡recovery ¡ ¡ • Dual-­‑homing ¡servers ¡ • vRouter ¡HA ¡ • Headless ¡fabric ¡ •

  16. Data ¡Plane ¡Failures ¡– ¡Losing ¡a ¡Link ¡ Spine Switch Spine Switch Port removed by fabric- control app on ONOS ECMP group ECMP group Leaf Switch Leaf Switch Port removed by hardware due to loss of signal

  17. Data ¡Plane ¡Failures ¡– ¡Losing ¡a ¡Link ¡ Spine Switch Spine Switch ECMP groups ECMP groups ECMP group ECMP group Leaf Switch Leaf Switch Port removed by hardware due to loss of signal

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend