阅读笔记|P4: programming protocol-independent packet processors

info: Bosshart, Pat, Dan Daly, Glen Gibb, Martin Izzard, Nick McKeown, Jennifer Rexford, Cole Schlesinger, et al. “P4: Programming Protocol-Independent Packet Processors.” ACM SIGCOMM Computer Communication Review 44, no. 3 (July 28, 2014): 87–95. https://doi.org/10.1145/2656877.2656890.

背景

  • OpenFlow采用了固定的包解析方式,只识别预定义的协议标头和固定字段。
  • 为了支持更多协议,OpenFlow不得不持续扩展支持的字段列表。
  • 字段数量的增加导致了OpenFlow规范的复杂性持续上升。
  • 但扩展现有规范仍然无法提供足够的灵活性,无法支持新增的自定义头格式。运营商往往需要采用软交换机来实现新功能。
  • OpenFlow对标头的假设限制了其扩展性。控制器无法表达新的包头应该如何被处理。
  • 固定标头机制与SDN控制交换机转发的初衷不符。控制器应该能定义包的解析方式和处理流程。
  • 作者认为,未来OpenFlow应该提供灵活的包解析机制,而不是继续扩展固定的字段列表。控制器应通过通用开放接口使用这些能力。

阅读笔记|SIMPLE-fying Middlebox Policy Enforcement Using SDN

info: Qazi, Zafar Ayyub, Rui Miao, Cheng-Chun Tu, Vyas Sekar, Luis Chiang, and Minlan Yu. “SIMPLE-Fying Middlebox Policy Enforcement Using SDN,” n.d.

背景

  • 中间设备(middleboxes)在企业网络中起着关键的性能、安全和政策合规性的作用。但是手工设置中间设备的部署拓扑和路由非常复杂和容易出错。
  • SDN为中间设备策略实施提供了一个有前景的替代方案。但是中间设备也为SDN带来了新的挑战,例如政策组合、资源管理、数据包修改等,这些都超出了SDN目前支持的传统二层/三层功能。

阅读笔记|Life on the Edge: Unraveling Policies into Configurations

info: W. X. Zhao et al., “A Survey of Large Language Models.” arXiv, Sep. 11, 2023. Accessed: Sep. 18, 2023. [Online]. Available: http://arxiv.org/abs/2303.18223

背景

  • 现有的SDN网络编程框架假设网络由同质设备组成,可以快速重新配置以响应不断变化的策略和网络条件。但这些假设与现实网络的情况不符,现实网络由于历史遗留设备、功能异构、性能限制等导致只能慢速配置。
  • 网络服务商需要在为用户提供灵活性和维护核心网络的完整性和可靠性之间做出平衡。

阅读笔记|A Survey of Large Language Models

info: W. X. Zhao et al., “A Survey of Large Language Models.” arXiv, Sep. 11, 2023. Accessed: Sep. 18, 2023. [Online]. Available: http://arxiv.org/abs/2303.18223

阅读笔记

模型选择:是否一定要选择参数量巨大的模型?如果需要更好的泛化能力,用于处理非单一的任务,例如对话,则可用选更大的模型;而对于单一明确的任务,则不一定越大越好,参数小一些的模型也能调教得很好。

阅读笔记|Language Models are Few-Shot Learners

info: T. B. Brown et al., “Language Models are Few-Shot Learners,” 2020, doi: 10.48550/ARXIV.2005.14165.

A. Radford, K. Narasimhan, T. Salimans, I. Sutskever, and others, “Improving language understanding by generative pre-training,” 2018.

A. Radford et al., “Language models are unsupervised multitask learners,” OpenAI blog, vol. 1, no. 8, p. 9, 2019.