taglinefilesource code
sk_buff57drivers/net/3c501.c#define alloc_skb(size, priority) (struct sk_buff *) kmalloc(size,priority)
sk_buff65drivers/net/3c501.cstatic int  el_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff268drivers/net/3c501.cel_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff442drivers/net/3c501.cstruct sk_buff *skb;
sk_buff457drivers/net/3c501.csksize = sizeof(struct sk_buff) + pkt_len;
sk_buff59drivers/net/3c507.c#define alloc_skb(size, priority) (struct sk_buff *) kmalloc(size,priority)
sk_buff263drivers/net/3c507.cstatic int  el16_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff446drivers/net/3c507.cel16_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff844drivers/net/3c507.cstruct sk_buff *skb;
sk_buff847drivers/net/3c507.csksize = sizeof(struct sk_buff) + pkt_len;
sk_buff47drivers/net/3c509.c#define alloc_skb(size, priority) (struct sk_buff *) kmalloc(size,priority)
sk_buff86drivers/net/3c509.cstatic int el3_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff355drivers/net/3c509.cel3_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff577drivers/net/3c509.cint sksize = sizeof(struct sk_buff) + pkt_len + 3;
sk_buff578drivers/net/3c509.cstruct sk_buff *skb;
sk_buff64drivers/net/8390.c#define alloc_skb(size, priority) (struct sk_buff *) kmalloc(size,priority)
sk_buff127drivers/net/8390.cstatic int ei_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff483drivers/net/8390.cint sksize = sizeof(struct sk_buff) + pkt_len;
sk_buff484drivers/net/8390.cstruct sk_buff *skb;
sk_buff56drivers/net/at1700.c#define alloc_skb(size, priority) (struct sk_buff *) kmalloc(size,priority)
sk_buff117drivers/net/at1700.cstatic int  net_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff368drivers/net/at1700.cnet_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff532drivers/net/at1700.cint sksize = sizeof(struct sk_buff) + pkt_len;
sk_buff533drivers/net/at1700.cstruct sk_buff *skb;
sk_buff93drivers/net/d_link.c#define alloc_skb(size,pri)  (struct sk_buff *)kmalloc(size,pri)
sk_buff226drivers/net/d_link.cstatic int  d_link_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff384drivers/net/d_link.cd_link_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff558drivers/net/d_link.cstruct sk_buff  *skb;
sk_buff580drivers/net/d_link.csksize = sizeof(struct sk_buff) + size;
sk_buff59drivers/net/eexpress.c#define alloc_skb(size, priority) (struct sk_buff *) kmalloc(size,priority)
sk_buff290drivers/net/eexpress.cstatic int  eexp_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff473drivers/net/eexpress.ceexp_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff947drivers/net/eexpress.cstruct sk_buff *skb;
sk_buff950drivers/net/eexpress.csksize = sizeof(struct sk_buff) + pkt_len;
sk_buff44drivers/net/lance.c#define alloc_skb(size, priority) (struct sk_buff *) kmalloc(size,priority)
sk_buff212drivers/net/lance.cstatic int lance_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff469drivers/net/lance.clance_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff656drivers/net/lance.cstruct sk_buff *skb = ((struct sk_buff *)databuff) - 1;
sk_buff711drivers/net/lance.cint sksize = sizeof(struct sk_buff) + pkt_len;
sk_buff712drivers/net/lance.cstruct sk_buff *skb;
sk_buff139drivers/net/plip.cstatic int plip_tx_packet(struct sk_buff *skb, struct device *dev);
sk_buff264drivers/net/plip.cplip_tx_packet(struct sk_buff *skb, struct device *dev)
sk_buff424drivers/net/plip.cstruct sk_buff *skb;
sk_buff473drivers/net/plip.csksize = sizeof(struct sk_buff) + length;
sk_buff75drivers/net/skeleton.c#define alloc_skb(size, priority) (struct sk_buff *) kmalloc(size,priority)
sk_buff110drivers/net/skeleton.cstatic int  net_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff291drivers/net/skeleton.cnet_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff410drivers/net/skeleton.cint sksize = sizeof(struct sk_buff) + pkt_len;
sk_buff411drivers/net/skeleton.cstruct sk_buff *skb;
sk_buff485drivers/net/slip.csl_xmit(struct sk_buff *skb, struct device *dev)
sk_buff519drivers/net/slip.csl_type_trans (struct sk_buff *skb, struct device *dev)
sk_buff536drivers/net/slip.csl_add_arp(unsigned long addr, struct sk_buff *skb, struct device *dev)
sk_buff119net/inet/arp.cstruct sk_buff * volatile arp_q = NULL;
sk_buff198net/inet/arp.cstruct sk_buff *skb;
sk_buff199net/inet/arp.cstruct sk_buff *volatile work_q;
sk_buff253net/inet/arp.cstruct sk_buff *skb;
sk_buff272net/inet/arp.cskb = alloc_skb(sizeof(struct sk_buff) +
sk_buff284net/inet/arp.cskb->mem_len  = sizeof(struct sk_buff) + skb->len;
sk_buff463net/inet/arp.carp_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff568net/inet/arp.cstruct sk_buff *skb;
sk_buff577net/inet/arp.cskb = alloc_skb(sizeof(struct sk_buff) +
sk_buff591net/inet/arp.cskb->mem_len = sizeof(struct sk_buff) + skb->len;
sk_buff721net/inet/arp.carp_queue(struct sk_buff *skb)
sk_buff48net/inet/arp.hextern struct sk_buff *arp_q;
sk_buff52net/inet/arp.hextern int  arp_rcv(struct sk_buff *skb, struct device *dev,
sk_buff59net/inet/arp.hextern void  arp_queue(struct sk_buff *skb);
sk_buff46net/inet/datagram.cstruct sk_buff *skb_recv_datagram(struct sock *sk, unsigned flags, int noblock, int *err)
sk_buff48net/inet/datagram.cstruct sk_buff *skb;
sk_buff121net/inet/datagram.cvoid skb_free_datagram(struct sk_buff *skb)
sk_buff139net/inet/datagram.cvoid skb_copy_datagram(struct sk_buff *skb, int offset, char *to, int size)
sk_buff76net/inet/dev.cstatic struct sk_buff *volatile backlog = NULL;
sk_buff337net/inet/dev.cstruct sk_buff *skb;
sk_buff351net/inet/dev.cdev_queue_xmit(struct sk_buff *skb, struct device *dev, int pri)
sk_buff408net/inet/dev.cnetif_rx(struct sk_buff *skb)
sk_buff439net/inet/dev.cstruct sk_buff *skb = NULL;
sk_buff446net/inet/dev.cskb = (struct sk_buff *) buff;
sk_buff463net/inet/dev.cskb->mem_addr = (struct sk_buff *) skb;
sk_buff519net/inet/dev.cstruct sk_buff *skb;
sk_buff566net/inet/dev.cstruct sk_buff *skb2;
sk_buff624net/inet/dev.cstruct sk_buff *skb;
sk_buff114net/inet/dev.hstruct sk_buff    *volatile buffs[DEV_NUMBUFFS];
sk_buff119net/inet/dev.hint        (*hard_start_xmit) (struct sk_buff *skb,
sk_buff128net/inet/dev.hstruct sk_buff *skb,
sk_buff130net/inet/dev.hvoid        (*queue_xmit)(struct sk_buff *skb,
sk_buff133net/inet/dev.hunsigned short    (*type_trans) (struct sk_buff *skb,
sk_buff147net/inet/dev.hint      (*func) (struct sk_buff *, struct device *,
sk_buff173net/inet/dev.hextern void    dev_queue_xmit(struct sk_buff *skb, struct device *dev,
sk_buff176net/inet/dev.hextern void    netif_rx(struct sk_buff *skb);
sk_buff166net/inet/eth.ceth_add_arp(unsigned long addr, struct sk_buff *skb, struct device *dev)
sk_buff177net/inet/eth.ceth_type_trans(struct sk_buff *skb, struct device *dev)
sk_buff31net/inet/eth.hextern void    eth_add_arp(unsigned long addr, struct sk_buff *skb,
sk_buff33net/inet/eth.hextern unsigned short  eth_type_trans(struct sk_buff *skb, struct device *dev);
sk_buff79net/inet/icmp.cicmp_send(struct sk_buff *skb_in, int type, int code, struct device *dev)
sk_buff81net/inet/icmp.cstruct sk_buff *skb;
sk_buff91net/inet/icmp.clen = sizeof(struct sk_buff) + dev->hard_header_len +
sk_buff95net/inet/icmp.cskb = (struct sk_buff *) alloc_skb(len, GFP_ATOMIC);
sk_buff102net/inet/icmp.clen -= sizeof(struct sk_buff);
sk_buff139net/inet/icmp.cicmp_unreach(struct icmphdr *icmph, struct sk_buff *skb)
sk_buff203net/inet/icmp.cicmp_redirect(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev)
sk_buff235net/inet/icmp.cicmp_echo(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev,
sk_buff240net/inet/icmp.cstruct sk_buff *skb2;
sk_buff243net/inet/icmp.csize = sizeof(struct sk_buff) + dev->hard_header_len + 64 + len;
sk_buff287net/inet/icmp.cicmp_info(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev,
sk_buff299net/inet/icmp.cicmp_address(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev,
sk_buff304net/inet/icmp.cstruct sk_buff *skb2;
sk_buff307net/inet/icmp.csize = sizeof(struct sk_buff) + dev->hard_header_len + 64 + len;
sk_buff354net/inet/icmp.cicmp_rcv(struct sk_buff *skb1, struct device *dev, struct options *opt,
sk_buff26net/inet/icmp.hextern void  icmp_send(struct sk_buff *skb_in,  int type, int code,
sk_buff28net/inet/icmp.hextern int  icmp_rcv(struct sk_buff *skb1, struct device *dev,
sk_buff170net/inet/ip.cip_send(struct sk_buff *skb, unsigned long daddr, int len, struct device *dev,
sk_buff198net/inet/ip.cip_build_header(struct sk_buff *skb, unsigned long saddr, unsigned long daddr,
sk_buff509net/inet/ip.cstatic struct ipfrag *ip_frag_create(int offset, int end, struct sk_buff *skb, unsigned char *ptr)
sk_buff645net/inet/ip.cstatic struct ipq *ip_create(struct sk_buff *skb, struct iphdr *iph, struct device *dev)
sk_buff735net/inet/ip.cstatic struct sk_buff *ip_glue(struct ipq *qp)
sk_buff737net/inet/ip.cstruct sk_buff *skb;
sk_buff744net/inet/ip.clen = sizeof(struct sk_buff)+qp->maclen + qp->ihlen + qp->len;
sk_buff799net/inet/ip.cstatic struct sk_buff *ip_defrag(struct iphdr *iph, struct sk_buff *skb, struct device *dev)
sk_buff804net/inet/ip.cstruct sk_buff *skb2;
sk_buff950net/inet/ip.cvoid ip_fragment(struct sock *sk, struct sk_buff *skb, struct device *dev, int is_frag)
sk_buff955net/inet/ip.cstruct sk_buff *skb2;
sk_buff1011net/inet/ip.cif ((skb2 = alloc_skb(sizeof(struct sk_buff) + len + hlen,GFP_KERNEL)) == NULL) 
sk_buff1055net/inet/ip.cip_forward(struct sk_buff *skb, struct device *dev, int is_frag)
sk_buff1059net/inet/ip.cstruct sk_buff *skb2;
sk_buff1138net/inet/ip.cskb2 = (struct sk_buff *) alloc_skb(sizeof(struct sk_buff) +
sk_buff1149net/inet/ip.cskb2->mem_len = sizeof(struct sk_buff) + skb2->len;
sk_buff1174net/inet/ip.cip_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff1266net/inet/ip.cstruct sk_buff *skb2;
sk_buff1330net/inet/ip.cstruct sk_buff *skb, int free)
sk_buff1407net/inet/ip.cstruct sk_buff * skb;
sk_buff1436net/inet/ip.cskb = (struct sk_buff *)skb->link3;
sk_buff1456net/inet/ip.cskb = (struct sk_buff *)skb->link3;
sk_buff41net/inet/ip.hstruct sk_buff *skb;      /* complete received fragment    */
sk_buff68net/inet/ip.hextern int    ip_build_header(struct sk_buff *skb,
sk_buff74net/inet/ip.hextern int    ip_rcv(struct sk_buff *skb, struct device *dev,
sk_buff77net/inet/ip.hstruct device *dev, struct sk_buff *skb,
sk_buff47net/inet/loopback.cloopback_xmit(struct sk_buff *skb, struct device *dev)
sk_buff58net/inet/packet.cpacket_rcv(struct sk_buff *skb, struct device *dev,  struct packet_type *pt)
sk_buff88net/inet/packet.cstruct sk_buff *skb;
sk_buff121net/inet/packet.cskb = (struct sk_buff *) sk->prot->wmalloc(sk, len+sizeof(*skb), 0, GFP_KERNEL);
sk_buff192net/inet/packet.cstruct sk_buff *skb;
sk_buff31net/inet/protocol.hint      (*handler)(struct sk_buff *skb, struct device *dev,
sk_buff35net/inet/protocol.hint      (*frag_handler)(struct sk_buff *skb, struct device *dev,
sk_buff89net/inet/raw.craw_rcv(struct sk_buff *skb, struct device *dev, struct options *opt,
sk_buff137net/inet/raw.cstruct sk_buff *skb;
sk_buff184net/inet/raw.cskb = (struct sk_buff *) sk->prot->wmalloc(sk,
sk_buff315net/inet/raw.cstruct sk_buff *skb;
sk_buff26net/inet/raw.hextern int  raw_rcv(struct sk_buff *skb, struct device *dev,
sk_buff55net/inet/skbuff.cvoid skb_check(struct sk_buff *skb, int line, char *file)
sk_buff83net/inet/skbuff.cvoid skb_queue_head(struct sk_buff *volatile* list,struct sk_buff *newsk)
sk_buff112net/inet/skbuff.cvoid skb_queue_tail(struct sk_buff *volatile* list, struct sk_buff *newsk)
sk_buff148net/inet/skbuff.cstruct sk_buff *skb_dequeue(struct sk_buff *volatile* list)
sk_buff151net/inet/skbuff.cstruct sk_buff *result;
sk_buff188net/inet/skbuff.cvoid skb_insert(struct sk_buff *old, struct sk_buff *newsk)
sk_buff215net/inet/skbuff.cvoid skb_append(struct sk_buff *old, struct sk_buff *newsk)
sk_buff245net/inet/skbuff.cvoid skb_unlink(struct sk_buff *skb)
sk_buff277net/inet/skbuff.cvoid skb_new_list_head(struct sk_buff *volatile* list)
sk_buff279net/inet/skbuff.cstruct sk_buff *skb=skb_peek(list);
sk_buff299net/inet/skbuff.cstruct sk_buff *skb_peek(struct sk_buff *volatile* list)
sk_buff312net/inet/skbuff.cstruct sk_buff *skb_peek_copy(struct sk_buff *volatile* list)
sk_buff314net/inet/skbuff.cstruct sk_buff *orig,*newsk;
sk_buff375net/inet/skbuff.cvoid kfree_skb(struct sk_buff *skb, int rw)
sk_buff403net/inet/skbuff.cstruct sk_buff *alloc_skb(unsigned int size,int priority)
sk_buff405net/inet/skbuff.cstruct sk_buff *skb=(struct sk_buff *)kmalloc(size,priority);
sk_buff427net/inet/skbuff.cstruct sk_buff *x=mem;
sk_buff43net/inet/skbuff.hstruct sk_buff    *volatile next;
sk_buff44net/inet/skbuff.hstruct sk_buff    *volatile prev;
sk_buff45net/inet/skbuff.hstruct sk_buff    *volatile link3;
sk_buff46net/inet/skbuff.hstruct sk_buff    *volatile* list;
sk_buff66net/inet/skbuff.hstruct sk_buff    *fraglist;  /* Fragment list */
sk_buff86net/inet/skbuff.hextern void      print_skb(struct sk_buff *);
sk_buff87net/inet/skbuff.hextern void      kfree_skb(struct sk_buff *skb, int rw);
sk_buff88net/inet/skbuff.hextern void      skb_queue_head(struct sk_buff * volatile *list,struct sk_buff *buf);
sk_buff89net/inet/skbuff.hextern void      skb_queue_tail(struct sk_buff * volatile *list,struct sk_buff *buf);
sk_buff90net/inet/skbuff.hextern struct sk_buff *    skb_dequeue(struct sk_buff * volatile *list);
sk_buff91net/inet/skbuff.hextern void       skb_insert(struct sk_buff *old,struct sk_buff *newsk);
sk_buff92net/inet/skbuff.hextern void      skb_append(struct sk_buff *old,struct sk_buff *newsk);
sk_buff93net/inet/skbuff.hextern void      skb_unlink(struct sk_buff *buf);
sk_buff94net/inet/skbuff.hextern void       skb_new_list_head(struct sk_buff *volatile* list);
sk_buff95net/inet/skbuff.hextern struct sk_buff *    skb_peek(struct sk_buff * volatile *list);
sk_buff96net/inet/skbuff.hextern struct sk_buff *    skb_peek_copy(struct sk_buff * volatile *list);
sk_buff97net/inet/skbuff.hextern struct sk_buff *    alloc_skb(unsigned int size, int priority);
sk_buff100net/inet/skbuff.hextern void       skb_check(struct sk_buff *skb,int, char *);
sk_buff103net/inet/skbuff.hextern struct sk_buff *    skb_recv_datagram(struct sock *sk,unsigned flags,int noblock, int *err);
sk_buff105net/inet/skbuff.hextern void      skb_copy_datagram(struct sk_buff *from, int offset, char *to,int size);
sk_buff106net/inet/skbuff.hextern void      skb_free_datagram(struct sk_buff *skb);
sk_buff132net/inet/sock.cprint_skb(struct sk_buff *skb)
sk_buff306net/inet/sock.cstruct sk_buff *skb;
sk_buff330net/inet/sock.cstruct sk_buff *skb2;
sk_buff332net/inet/sock.cskb2=(struct sk_buff *)skb->next;
sk_buff369net/inet/sock.cstruct sk_buff *skb2;
sk_buff386net/inet/sock.cskb2 = (struct sk_buff *)skb->link3;
sk_buff398net/inet/sock.cskb = (struct sk_buff *)sk->back_log;
sk_buff401net/inet/sock.cstruct sk_buff *skb2;
sk_buff403net/inet/sock.cskb2 = (struct sk_buff *)skb->next;
sk_buff1663net/inet/sock.cstruct sk_buff *skb;
sk_buff1666net/inet/sock.cskb =(struct sk_buff *)sk->back_log;
sk_buff83net/inet/sock.hstruct sk_buff    *volatile send_tail;
sk_buff84net/inet/sock.hstruct sk_buff    *volatile send_head;
sk_buff85net/inet/sock.hstruct sk_buff    *volatile back_log;
sk_buff86net/inet/sock.hstruct sk_buff    *send_tmp;
sk_buff88net/inet/sock.hstruct sk_buff    *volatile wback,
sk_buff154net/inet/sock.hint      (*build_header)(struct sk_buff *skb,
sk_buff163net/inet/sock.hstruct device *dev, struct sk_buff *skb,
sk_buff168net/inet/sock.hint      (*rcv)(struct sk_buff *buff, struct device *dev,
sk_buff128net/inet/tcp.cstatic struct sk_buff *
sk_buff257net/inet/tcp.cstruct sk_buff *skb;
sk_buff278net/inet/tcp.cskb =(struct sk_buff *)sk->rqueue;
sk_buff305net/inet/tcp.cskb =(struct sk_buff *)skb->next;    /* Move along */
sk_buff440net/inet/tcp.cstruct sk_buff *skb;
sk_buff556net/inet/tcp.cstruct sk_buff *skb;
sk_buff595net/inet/tcp.cstruct sk_buff *buff;
sk_buff606net/inet/tcp.cbuff = (struct sk_buff *) sk->prot->wmalloc(sk, MAX_ACK_SIZE, 1, GFP_ATOMIC);
sk_buff703net/inet/tcp.cstruct sk_buff *skb;
sk_buff830net/inet/tcp.cskb = (struct sk_buff *) prot->wmalloc(sk,
sk_buff840net/inet/tcp.cskb = (struct sk_buff *) prot->wmalloc(sk,
sk_buff982net/inet/tcp.cstruct sk_buff *buff;
sk_buff997net/inet/tcp.cbuff = (struct sk_buff *) sk->prot->wmalloc(sk,MAX_ACK_SIZE,1, GFP_ATOMIC);
sk_buff1052net/inet/tcp.cstruct sk_buff *skb;
sk_buff1123net/inet/tcp.cstruct sk_buff *skb;
sk_buff1205net/inet/tcp.cskb =(struct sk_buff *)skb->next;
sk_buff1220net/inet/tcp.cstruct sk_buff *skb;
sk_buff1380net/inet/tcp.cskb =(struct sk_buff *)skb->next;
sk_buff1430net/inet/tcp.cskb =(struct sk_buff *)skb->next;
sk_buff1449net/inet/tcp.cstruct sk_buff *buff;
sk_buff1473net/inet/tcp.cbuff = (struct sk_buff *) prot->wmalloc(sk, MAX_RESET_SIZE,1 , GFP_KERNEL);
sk_buff1574net/inet/tcp.cstruct sk_buff *buff;
sk_buff1582net/inet/tcp.cbuff = (struct sk_buff *) prot->wmalloc(NULL, MAX_RESET_SIZE, 1, GFP_ATOMIC);
sk_buff1698net/inet/tcp.ctcp_conn_request(struct sock *sk, struct sk_buff *skb,
sk_buff1702net/inet/tcp.cstruct sk_buff *buff;
sk_buff1820net/inet/tcp.cbuff = (struct sk_buff *) newsk->prot->wmalloc(newsk, MAX_SYN_SIZE, 1, GFP_ATOMIC);
sk_buff1899net/inet/tcp.cstruct sk_buff *buff;
sk_buff1920net/inet/tcp.cstruct sk_buff *skb;
sk_buff1922net/inet/tcp.cstruct sk_buff *skb2;
sk_buff1925net/inet/tcp.cskb2 =(struct sk_buff *)skb->next;
sk_buff1981net/inet/tcp.cbuff = (struct sk_buff *) prot->wmalloc(sk, MAX_FIN_SIZE, 1, GFP_ATOMIC);
sk_buff2060net/inet/tcp.cstruct sk_buff *skb;
sk_buff2074net/inet/tcp.csk->wfront =(struct sk_buff *)skb->next;
sk_buff2106net/inet/tcp.cstruct sk_buff *list = NULL;
sk_buff2107net/inet/tcp.cstruct sk_buff *skb,*skb2,*skb3;
sk_buff2110net/inet/tcp.cskb2 = (struct sk_buff *)skb->link3;
sk_buff2116net/inet/tcp.cfor (skb3 = list; ; skb3 = (struct sk_buff *)skb3->link3) {
sk_buff2168net/inet/tcp.cstruct sk_buff *skb;
sk_buff2169net/inet/tcp.cstruct sk_buff *skb2;
sk_buff2170net/inet/tcp.cstruct sk_buff *wskb = NULL;
sk_buff2182net/inet/tcp.cskb2 = (struct sk_buff *)skb->link3;
sk_buff2265net/inet/tcp.cstruct sk_buff *oskb;
sk_buff2303net/inet/tcp.csk->send_head =(struct sk_buff *)oskb->link3;
sk_buff2400net/inet/tcp.ctcp_data(struct sk_buff *skb, struct sock *sk, 
sk_buff2403net/inet/tcp.cstruct sk_buff *skb1, *skb2;
sk_buff2456net/inet/tcp.cfor(skb1=sk->rqueue->prev; ; skb1 =(struct sk_buff *)skb1->prev) {
sk_buff2530net/inet/tcp.cfor(skb2 = (struct sk_buff *)skb->next;
sk_buff2531net/inet/tcp.cskb2 !=(struct sk_buff *) sk->rqueue;
sk_buff2532net/inet/tcp.cskb2 = (struct sk_buff *)skb2->next) {
sk_buff2598net/inet/tcp.csk->rqueue = (struct sk_buff *)skb1->prev;
sk_buff2716net/inet/tcp.cstruct sk_buff *skb;
sk_buff2766net/inet/tcp.cstruct sk_buff *buff;
sk_buff2801net/inet/tcp.cbuff = (struct sk_buff *) sk->prot->wmalloc(sk,MAX_SYN_SIZE,0, GFP_KERNEL);
sk_buff2912net/inet/tcp.ctcp_rcv(struct sk_buff *skb, struct device *dev, struct options *opt,
sk_buff3334net/inet/tcp.cstruct sk_buff *buff;
sk_buff3344net/inet/tcp.cbuff = (struct sk_buff *) sk->prot->wmalloc(sk,MAX_ACK_SIZE,1, GFP_ATOMIC);
sk_buff23net/inet/tcp.h#define MAX_SYN_SIZE  44 + sizeof (struct sk_buff) + MAX_HEADER
sk_buff24net/inet/tcp.h#define MAX_FIN_SIZE  40 + sizeof (struct sk_buff) + MAX_HEADER
sk_buff25net/inet/tcp.h#define MAX_ACK_SIZE  40 + sizeof (struct sk_buff) + MAX_HEADER
sk_buff26net/inet/tcp.h#define MAX_RESET_SIZE  40 + sizeof (struct sk_buff) + MAX_HEADER
sk_buff140net/inet/tcp.hextern int  tcp_rcv(struct sk_buff *skb, struct device *dev,
sk_buff218net/inet/udp.cstruct sk_buff *skb;
sk_buff235net/inet/udp.csize = sizeof(struct sk_buff) + sk->prot->max_header + len;
sk_buff236net/inet/udp.cskb = (struct sk_buff *) sk->prot->wmalloc(sk, size, 0, GFP_KERNEL);
sk_buff400net/inet/udp.cstruct sk_buff *skb;
sk_buff439net/inet/udp.cstruct sk_buff *skb;
sk_buff546net/inet/udp.cudp_rcv(struct sk_buff *skb, struct device *dev, struct options *opt,
sk_buff43net/inet/udp.hextern int  udp_rcv(struct sk_buff *skb, struct device *dev,