taglinefilesource code
sk_buff122drivers/net/3c501.cstatic int  el_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff377drivers/net/3c501.cstatic int el_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff679drivers/net/3c501.cstruct sk_buff *skb;
sk_buff77drivers/net/3c503.cstatic void el2_block_input(struct device *dev, int count, struct sk_buff *skb,
sk_buff513drivers/net/3c503.cel2_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff557drivers/net/3c505.cstruct sk_buff *skb;
sk_buff1005drivers/net/3c505.celp_start_xmit (struct sk_buff *skb, struct device *dev)
sk_buff282drivers/net/3c507.cstatic int  el16_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff451drivers/net/3c507.cel16_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff841drivers/net/3c507.cstruct sk_buff *skb;
sk_buff104drivers/net/3c509.cstatic int el3_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff382drivers/net/3c509.cel3_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff596drivers/net/3c509.cstruct sk_buff *skb;
sk_buff215drivers/net/3c59x.cstruct sk_buff *tx_skb;    /* Packet being eaten by bus master ctrl.  */
sk_buff232drivers/net/3c59x.cstatic int vortex_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff621drivers/net/3c59x.cvortex_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff872drivers/net/3c59x.cstruct sk_buff *skb;
sk_buff140drivers/net/8390.cstatic int ei_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff467drivers/net/8390.cstruct sk_buff *skb;
sk_buff53drivers/net/8390.hvoid (*block_input)(struct device *, int, struct sk_buff *, int);
sk_buff76drivers/net/ac3200.cstruct sk_buff *skb, int ring_offset);
sk_buff269drivers/net/ac3200.cstatic void ac_block_input(struct device *dev, int count, struct sk_buff *skb,
sk_buff48drivers/net/apricot.c#define alloc_skb(size, priority) (struct sk_buff *) kmalloc(size,priority)
sk_buff185drivers/net/apricot.cstatic int i596_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff340drivers/net/apricot.cstruct sk_buff *skb = dev_alloc_skb(pkt_len);
sk_buff406drivers/net/apricot.cstruct sk_buff *skb = ((struct sk_buff *)(tx_cmd->tbd->data)) -1;
sk_buff569drivers/net/apricot.ci596_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff804drivers/net/apricot.cstruct sk_buff *skb = ((struct sk_buff *)(tx_cmd->tbd->data)) -1;
sk_buff428drivers/net/arcnet.cstruct sk_buff *skb;    /* packet data buffer             */
sk_buff436drivers/net/arcnet.cstruct sk_buff *skb;    /* buffer from upper levels */
sk_buff495drivers/net/arcnet.cstatic int arcnet_send_packet_bad(struct sk_buff *skb,struct device *dev);
sk_buff496drivers/net/arcnet.cstatic int arcnetA_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff497drivers/net/arcnet.cstatic int arcnetE_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff498drivers/net/arcnet.cstatic int arcnetS_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff520drivers/net/arcnet.cint arcnetA_header(struct sk_buff *skb,struct device *dev,
sk_buff522drivers/net/arcnet.cint arcnetS_header(struct sk_buff *skb,struct device *dev,
sk_buff525drivers/net/arcnet.cstruct sk_buff *skb);
sk_buff527drivers/net/arcnet.cstruct sk_buff *skb);
sk_buff528drivers/net/arcnet.cunsigned short arcnetA_type_trans(struct sk_buff *skb,struct device *dev);
sk_buff529drivers/net/arcnet.cunsigned short arcnetS_type_trans(struct sk_buff *skb,struct device *dev);
sk_buff1188drivers/net/arcnet.carcnet_send_packet_bad(struct sk_buff *skb, struct device *dev)
sk_buff1306drivers/net/arcnet.carcnetA_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff1424drivers/net/arcnet.carcnetE_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff1546drivers/net/arcnet.carcnetS_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff2194drivers/net/arcnet.cstruct sk_buff *skb;
sk_buff2488drivers/net/arcnet.cstruct sk_buff *skb;
sk_buff2531drivers/net/arcnet.cstruct sk_buff *skb;
sk_buff2628drivers/net/arcnet.cint arcnetA_header(struct sk_buff *skb,struct device *dev,
sk_buff2702drivers/net/arcnet.cint arcnetS_header(struct sk_buff *skb,struct device *dev,
sk_buff2760drivers/net/arcnet.cstruct sk_buff *skb)
sk_buff2798drivers/net/arcnet.cstruct sk_buff *skb)
sk_buff2833drivers/net/arcnet.cunsigned short arcnetA_type_trans(struct sk_buff *skb,struct device *dev)
sk_buff2874drivers/net/arcnet.cunsigned short arcnetS_type_trans(struct sk_buff *skb,struct device *dev)
sk_buff119drivers/net/at1700.cstatic int  net_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff364drivers/net/at1700.cnet_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff520drivers/net/at1700.cstruct sk_buff *skb;
sk_buff137drivers/net/atp.cstatic int  net_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff416drivers/net/atp.cnet_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff673drivers/net/atp.cstruct sk_buff *skb;
sk_buff353drivers/net/de4x5.cstruct sk_buff *skb[NUM_TX_DESC];        /* TX skb for freeing when sent */
sk_buff398drivers/net/de4x5.cstatic int     de4x5_queue_pkt(struct sk_buff *skb, struct device *dev);
sk_buff418drivers/net/de4x5.cstatic void    load_packet(struct device *dev, char *buf, u32 flags, struct sk_buff *skb);
sk_buff938drivers/net/de4x5.cde4x5_queue_pkt(struct sk_buff *skb, struct device *dev)
sk_buff1146drivers/net/de4x5.cstruct sk_buff *skb;
sk_buff1360drivers/net/de4x5.cstatic void load_packet(struct device *dev, char *buf, u32 flags, struct sk_buff *skb)
sk_buff2478drivers/net/de4x5.cstruct sk_buff *skb;
sk_buff247drivers/net/de600.cstatic int  de600_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff397drivers/net/de600.cde600_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff580drivers/net/de600.cstruct sk_buff  *skb;
sk_buff210drivers/net/de620.cstatic int  de620_start_xmit(struct sk_buff *, struct device *);
sk_buff511drivers/net/de620.cde620_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff652drivers/net/de620.cstruct sk_buff *skb;
sk_buff383drivers/net/depca.cstatic int    depca_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff408drivers/net/depca.cstatic int    load_packet(struct device *dev, struct sk_buff *skb);
sk_buff779drivers/net/depca.cdepca_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff912drivers/net/depca.cstruct sk_buff *skb;
sk_buff1529drivers/net/depca.cstatic int load_packet(struct device *dev, struct sk_buff *skb)
sk_buff56drivers/net/dummy.cstatic int dummy_xmit(struct sk_buff *skb, struct device *dev);
sk_buff105drivers/net/dummy.cdummy_xmit(struct sk_buff *skb, struct device *dev)
sk_buff102drivers/net/e2100.cstruct sk_buff *skb, int ring_offset);
sk_buff318drivers/net/e2100.ce21_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff137drivers/net/eepro.cstatic int  eepro_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff595drivers/net/eepro.ceepro_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff1046drivers/net/eepro.cstruct sk_buff *skb;
sk_buff288drivers/net/eexpress.cstatic int  eexp_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff450drivers/net/eexpress.ceexp_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff930drivers/net/eexpress.cstruct sk_buff *skb;
sk_buff149drivers/net/eql.cstatic int eql_slave_xmit(struct sk_buff *skb, struct device *dev); /*  */
sk_buff152drivers/net/eql.cstatic int eql_header(struct sk_buff *skb, struct device *dev, 
sk_buff156drivers/net/eql.cunsigned long raddr, struct sk_buff *skb); /*  */
sk_buff361drivers/net/eql.cstatic int eql_slave_xmit(struct sk_buff *skb, struct device *dev)
sk_buff408drivers/net/eql.cstatic int  eql_header(struct sk_buff *skb, struct device *dev, 
sk_buff417drivers/net/eql.cunsigned long raddr, struct sk_buff *skb)
sk_buff327drivers/net/eth16i.cstatic int eth16i_tx(struct sk_buff *skb, struct device *dev);
sk_buff859drivers/net/eth16i.cstatic int eth16i_tx(struct sk_buff *skb, struct device *dev)
sk_buff1003drivers/net/eth16i.cstruct sk_buff *skb;
sk_buff288drivers/net/ewrk3.cstatic int    ewrk3_queue_pkt(struct sk_buff *skb, struct device *dev);
sk_buff720drivers/net/ewrk3.cewrk3_queue_pkt(struct sk_buff *skb, struct device *dev)
sk_buff998drivers/net/ewrk3.cstruct sk_buff *skb;
sk_buff102drivers/net/hp-plus.cstruct sk_buff *skb, int ring_offset);
sk_buff108drivers/net/hp-plus.cstruct sk_buff *skb, int ring_offset);
sk_buff340drivers/net/hp-plus.chpp_io_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff367drivers/net/hp-plus.chpp_mem_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff66drivers/net/hp.cstruct sk_buff *skb , int ring_offset);
sk_buff276drivers/net/hp.chp_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff193drivers/net/hp100.cstatic int hp100_start_xmit( struct sk_buff *skb, struct device *dev );
sk_buff574drivers/net/hp100.cstatic int hp100_start_xmit( struct sk_buff *skb, struct device *dev )
sk_buff710drivers/net/hp100.cstruct sk_buff *skb;
sk_buff148drivers/net/ibmtr.cstatic int tok_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff1139drivers/net/ibmtr.cstruct sk_buff *skb;
sk_buff1235drivers/net/ibmtr.cstatic int tok_send_packet(struct sk_buff *skb, struct device *dev) {
sk_buff209drivers/net/ibmtr.hstruct sk_buff *current_skb;
sk_buff196drivers/net/lance.cstruct sk_buff* tx_skbuff[TX_RING_SIZE];
sk_buff255drivers/net/lance.cstatic int lance_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff705drivers/net/lance.clance_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff984drivers/net/lance.cstruct sk_buff *skb;
sk_buff52drivers/net/loopback.cstatic int loopback_xmit(struct sk_buff *skb, struct device *dev)
sk_buff79drivers/net/loopback.cstruct sk_buff *skb2=skb;
sk_buff109drivers/net/ne.cstruct sk_buff *skb, int ring_offset);
sk_buff498drivers/net/ne.cne_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff166drivers/net/ni52.cstatic int     ni52_send_packet(struct sk_buff *,struct device *);
sk_buff804drivers/net/ni52.cstruct sk_buff *skb;
sk_buff818drivers/net/ni52.cskb = (struct sk_buff *) dev_alloc_skb(totlen+2);
sk_buff940drivers/net/ni52.cstatic int ni52_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff122drivers/net/ni65.cstatic int   ni65_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff136drivers/net/ni65.cstruct sk_buff *recv_skb[RMDNUM];
sk_buff455drivers/net/ni65.cstruct sk_buff *skb;
sk_buff465drivers/net/ni65.cskb = (struct sk_buff *) p->tmdbufs[p->tmdlast];
sk_buff503drivers/net/ni65.cstruct sk_buff *skb,*skb1;
sk_buff567drivers/net/ni65.cstatic int ni65_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff151drivers/net/pi2.cstatic int pi_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff208drivers/net/pi2.cstatic void hardware_send_packet(struct pi_local *lp, struct sk_buff *skb)
sk_buff338drivers/net/pi2.cstatic void free_p(struct sk_buff *skb)
sk_buff510drivers/net/pi2.cstruct sk_buff *skb;
sk_buff585drivers/net/pi2.cstruct sk_buff *skb;
sk_buff1077drivers/net/pi2.cstatic int pi_header(struct sk_buff *skb, struct device *dev, unsigned short type,
sk_buff1085drivers/net/pi2.cstruct sk_buff *skb)
sk_buff1493drivers/net/pi2.cstatic int pi_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff1571drivers/net/pi2.cstruct sk_buff *ptr;
sk_buff101drivers/net/pi2.hstruct sk_buff *sndbuf;  /* Current buffer being transmitted */
sk_buff146drivers/net/plip.cunsigned long raddr, struct sk_buff *skb);
sk_buff147drivers/net/plip.cstatic int plip_tx_packet(struct sk_buff *skb, struct device *dev);
sk_buff197drivers/net/plip.cstruct sk_buff *skb;
sk_buff212drivers/net/plip.cunsigned long raddr, struct sk_buff *skb);
sk_buff858drivers/net/plip.cstruct sk_buff *skb)
sk_buff880drivers/net/plip.cplip_tx_packet(struct sk_buff *skb, struct device *dev)
sk_buff100drivers/net/ppp.ctypedef struct sk_buff       sk_buff;
sk_buff190drivers/net/ppp.cstatic int ppp_dev_xmit (sk_buff *, struct device *);
sk_buff201drivers/net/ppp.cstatic unsigned short ppp_dev_type (sk_buff *, struct device *);
sk_buff204drivers/net/ppp.cunsigned len, struct sk_buff *skb);
sk_buff212drivers/net/ppp.cstatic int ppp_dev_header (sk_buff *, struct device *, unsigned short,
sk_buff218drivers/net/ppp.csk_buff *skb, void *saddr, void *daddr);
sk_buff219drivers/net/ppp.cstatic int ppp_dev_output (struct protocol *self, sk_buff *skb, int type,
sk_buff224drivers/net/ppp.csk_buff *);
sk_buff1254drivers/net/ppp.csk_buff *skb = dev_alloc_skb (count);
sk_buff3116drivers/net/ppp.cppp_dev_xmit (sk_buff *skb, struct device *dev)
sk_buff3234drivers/net/ppp.csk_buff *skb, void *saddr, void *daddr)
sk_buff3239drivers/net/ppp.cstatic int ppp_dev_output (struct protocol *self, sk_buff *skb, int type,
sk_buff3276drivers/net/ppp.cppp_dev_type (sk_buff *skb, struct device *dev)
sk_buff3285drivers/net/ppp.cunsigned len, struct sk_buff *skb)
sk_buff3287drivers/net/ppp.cstatic int ppp_dev_header (sk_buff *skb, struct device *dev,
sk_buff3297drivers/net/ppp.csk_buff *skb)
sk_buff122drivers/net/pt.cstatic int pt_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff177drivers/net/pt.cstatic void hardware_send_packet(struct pt_local *lp, struct sk_buff *skb)
sk_buff318drivers/net/pt.cstatic void free_p(struct sk_buff *skb)
sk_buff339drivers/net/pt.cstatic int pt_header (struct sk_buff *skb, struct device *dev, unsigned short type,
sk_buff348drivers/net/pt.cstruct sk_buff *skb)
sk_buff972drivers/net/pt.cstatic int pt_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff999drivers/net/pt.cstruct sk_buff *ptr = NULL;
sk_buff1271drivers/net/pt.cstruct sk_buff *skb;
sk_buff1810drivers/net/pt.cstruct sk_buff *skb;
sk_buff141drivers/net/pt.hstruct sk_buff *sndbuf;/* Current buffer being transmitted */
sk_buff83drivers/net/seeq8005.cstatic int seeq8005_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff374drivers/net/seeq8005.cseeq8005_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff533drivers/net/seeq8005.cstruct sk_buff *skb;
sk_buff489drivers/net/sk_g16.cstatic int   SK_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff1192drivers/net/sk_g16.cstatic int SK_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff1570drivers/net/sk_g16.cstruct sk_buff *skb;
sk_buff102drivers/net/skeleton.cstatic int  net_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff344drivers/net/skeleton.cnet_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff459drivers/net/skeleton.cstruct sk_buff *skb;
sk_buff345drivers/net/slip.cstruct sk_buff *skb;
sk_buff486drivers/net/slip.csl_xmit(struct sk_buff *skb, struct device *dev)
sk_buff538drivers/net/slip.csl_header(struct sk_buff *skb, struct device *dev, unsigned short type,
sk_buff557drivers/net/slip.cstruct sk_buff *skb)
sk_buff73drivers/net/smc-ultra.cstruct sk_buff *skb, int ring_offset);
sk_buff286drivers/net/smc-ultra.cultra_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff347drivers/net/sunlance.cstruct sk_buff *skb;
sk_buff387drivers/net/sunlance.cstruct sk_buff *skb;
sk_buff602drivers/net/sunlance.cstatic int lance_start_xmit (struct sk_buff *skb, struct device *dev)
sk_buff143drivers/net/tulip.cstruct sk_buff* tx_skbuff[TX_RING_SIZE];
sk_buff156drivers/net/tulip.cstatic int tulip_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff376drivers/net/tulip.ctulip_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff601drivers/net/tulip.cstruct sk_buff *skb;
sk_buff42drivers/net/tunnel.cstatic int tunnel_xmit(struct sk_buff *skb, struct device *dev);
sk_buff123drivers/net/tunnel.cstatic int tunnel_xmit(struct sk_buff *skb, struct device *dev)
sk_buff126drivers/net/tunnel.cstruct sk_buff *skb2;    /* The output packet */
sk_buff79drivers/net/wavelan.cstatic int    wavelan_send_packet(struct sk_buff *, device *);
sk_buff1389drivers/net/wavelan.cwavelan_send_packet(struct sk_buff *skb, device *dev)
sk_buff1430drivers/net/wavelan.cif (skb == (struct sk_buff *)0)
sk_buff1497drivers/net/wavelan.cstruct sk_buff  *skb;
sk_buff1640drivers/net/wavelan.cif ((skb = dev_alloc_skb(sksize)) == (struct sk_buff *)0)
sk_buff55drivers/net/wd.cstruct sk_buff *skb, int ring_offset);
sk_buff376drivers/net/wd.cwd_block_input(struct device *dev, int count, struct sk_buff *skb, int ring_offset)
sk_buff184drivers/net/znet.cstatic int  znet_send_packet(struct sk_buff *skb, struct device *dev);
sk_buff317drivers/net/znet.cstatic int znet_send_packet(struct sk_buff *skb, struct device *dev)
sk_buff549drivers/net/znet.cstruct sk_buff *skb;
sk_buff170fs/nfs/nfsroot.cstatic int root_rarp_recv(struct sk_buff *skb, struct device *dev,
sk_buff207fs/nfs/nfsroot.cstatic int root_rarp_recv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff141include/linux/atalk.hextern int aarp_send_ddp(struct device *dev,struct sk_buff *skb, struct at_addr *sa, void *hwaddr);
sk_buff31include/linux/etherdevice.hextern int    eth_header(struct sk_buff *skb, struct device *dev,
sk_buff35include/linux/etherdevice.hunsigned long dst, struct sk_buff *skb);
sk_buff36include/linux/etherdevice.hextern unsigned short  eth_type_trans(struct sk_buff *skb, struct device *dev);
sk_buff40include/linux/etherdevice.hextern void    eth_copy_and_sum(struct sk_buff *dest,
sk_buff18include/linux/firewall.hstruct sk_buff *skb, void *phdr);
sk_buff20include/linux/firewall.hstruct sk_buff *skb, void *phdr);
sk_buff22include/linux/firewall.hstruct sk_buff *skb, void *phdr);
sk_buff34include/linux/firewall.hextern int call_fw_firewall(int pf, struct sk_buff *skb, void *phdr);
sk_buff35include/linux/firewall.hextern int call_in_firewall(int pf, struct sk_buff *skb, void *phdr);
sk_buff36include/linux/firewall.hextern int call_out_firewall(int pf, struct sk_buff *skb, void *phdr);
sk_buff109include/linux/igmp.hextern int igmp_rcv(struct sk_buff *, struct device *, struct options *, __u32, unsigned short,
sk_buff187include/linux/ip_fw.hextern void ip_fw_masquerade(struct sk_buff **, struct device *);
sk_buff188include/linux/ip_fw.hextern int ip_fw_demasquerade(struct sk_buff *);
sk_buff124include/linux/mroute.hextern void ipmr_forward(struct sk_buff *skb, int is_frag);
sk_buff165include/linux/netdevice.hint        (*hard_start_xmit) (struct sk_buff *skb,
sk_buff167include/linux/netdevice.hint        (*hard_header) (struct sk_buff *skb,
sk_buff174include/linux/netdevice.hunsigned long raddr, struct sk_buff *skb);
sk_buff192include/linux/netdevice.hint      (*func) (struct sk_buff *, struct device *,
sk_buff226include/linux/netdevice.hextern void    dev_queue_xmit(struct sk_buff *skb, struct device *dev,
sk_buff229include/linux/netdevice.hextern void    netif_rx(struct sk_buff *skb);
sk_buff36include/linux/skbuff.hstruct sk_buff  * volatile next;
sk_buff37include/linux/skbuff.hstruct sk_buff  * volatile prev;
sk_buff48include/linux/skbuff.hstruct sk_buff  * volatile next;  /* Next buffer in list         */
sk_buff49include/linux/skbuff.hstruct sk_buff  * volatile prev;  /* Previous buffer in list       */
sk_buff54include/linux/skbuff.hstruct sk_buff  * volatile link3;  /* Link for IP protocol level buffer chains   */
sk_buff103include/linux/skbuff.hstruct sk_buff  *data_skb;    /* Link to the actual data skb      */
sk_buff108include/linux/skbuff.hvoid     (*destructor)(struct sk_buff *this);  /* Destruct function    */
sk_buff133include/linux/skbuff.hextern void      print_skb(struct sk_buff *);
sk_buff135include/linux/skbuff.hextern void      kfree_skb(struct sk_buff *skb, int rw);
sk_buff137include/linux/skbuff.hextern void      skb_queue_head(struct sk_buff_head *list,struct sk_buff *buf);
sk_buff138include/linux/skbuff.hextern void      skb_queue_tail(struct sk_buff_head *list,struct sk_buff *buf);
sk_buff139include/linux/skbuff.hextern struct sk_buff *    skb_dequeue(struct sk_buff_head *list);
sk_buff140include/linux/skbuff.hextern void       skb_insert(struct sk_buff *old,struct sk_buff *newsk);
sk_buff141include/linux/skbuff.hextern void      skb_append(struct sk_buff *old,struct sk_buff *newsk);
sk_buff142include/linux/skbuff.hextern void      skb_unlink(struct sk_buff *buf);
sk_buff144include/linux/skbuff.hextern struct sk_buff *    skb_peek_copy(struct sk_buff_head *list);
sk_buff145include/linux/skbuff.hextern struct sk_buff *    alloc_skb(unsigned int size, int priority);
sk_buff146include/linux/skbuff.hextern struct sk_buff *    dev_alloc_skb(unsigned int size);
sk_buff147include/linux/skbuff.hextern void      kfree_skbmem(struct sk_buff *skb);
sk_buff148include/linux/skbuff.hextern struct sk_buff *    skb_clone(struct sk_buff *skb, int priority);
sk_buff149include/linux/skbuff.hextern struct sk_buff *    skb_copy(struct sk_buff *skb, int priority);
sk_buff150include/linux/skbuff.hextern void      skb_device_lock(struct sk_buff *skb);
sk_buff151include/linux/skbuff.hextern void      skb_device_unlock(struct sk_buff *skb);
sk_buff152include/linux/skbuff.hextern void      dev_kfree_skb(struct sk_buff *skb, int mode);
sk_buff153include/linux/skbuff.hextern int      skb_device_locked(struct sk_buff *skb);
sk_buff154include/linux/skbuff.hextern unsigned char *    skb_put(struct sk_buff *skb, int len);
sk_buff155include/linux/skbuff.hextern unsigned char *    skb_push(struct sk_buff *skb, int len);
sk_buff156include/linux/skbuff.hextern unsigned char *    skb_pull(struct sk_buff *skb, int len);
sk_buff157include/linux/skbuff.hextern int      skb_headroom(struct sk_buff *skb);
sk_buff158include/linux/skbuff.hextern int      skb_tailroom(struct sk_buff *skb);
sk_buff159include/linux/skbuff.hextern void      skb_reserve(struct sk_buff *skb, int len);
sk_buff160include/linux/skbuff.hextern void       skb_trim(struct sk_buff *skb, int len);
sk_buff168include/linux/skbuff.hextern __inline__ struct sk_buff *skb_peek(struct sk_buff_head *list_)
sk_buff170include/linux/skbuff.hstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff184include/linux/skbuff.hextern int       skb_check(struct sk_buff *skb,int,int, char *);
sk_buff193include/linux/skbuff.hlist->prev = (struct sk_buff *)list;
sk_buff194include/linux/skbuff.hlist->next = (struct sk_buff *)list;
sk_buff202include/linux/skbuff.hextern __inline__ void skb_queue_head(struct sk_buff_head *list_,struct sk_buff *newsk)
sk_buff205include/linux/skbuff.hstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff222include/linux/skbuff.hextern __inline__ void skb_queue_tail(struct sk_buff_head *list_, struct sk_buff *newsk)
sk_buff225include/linux/skbuff.hstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff247include/linux/skbuff.hextern __inline__ struct sk_buff *skb_dequeue(struct sk_buff_head *list_)
sk_buff250include/linux/skbuff.hstruct sk_buff *result;
sk_buff251include/linux/skbuff.hstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff282include/linux/skbuff.hextern __inline__ void skb_insert(struct sk_buff *old, struct sk_buff *newsk)
sk_buff301include/linux/skbuff.hextern __inline__ void skb_append(struct sk_buff *old, struct sk_buff *newsk)
sk_buff325include/linux/skbuff.hextern __inline__ void skb_unlink(struct sk_buff *skb)
sk_buff348include/linux/skbuff.hextern __inline__ unsigned char *skb_put(struct sk_buff *skb, int len)
sk_buff358include/linux/skbuff.hextern __inline__ unsigned char *skb_push(struct sk_buff *skb, int len)
sk_buff367include/linux/skbuff.hextern __inline__ unsigned char * skb_pull(struct sk_buff *skb, int len)
sk_buff376include/linux/skbuff.hextern __inline__ int skb_headroom(struct sk_buff *skb)
sk_buff381include/linux/skbuff.hextern __inline__ int skb_tailroom(struct sk_buff *skb)
sk_buff386include/linux/skbuff.hextern __inline__ void skb_reserve(struct sk_buff *skb, int len)
sk_buff392include/linux/skbuff.hextern __inline__ void skb_trim(struct sk_buff *skb, int len)
sk_buff403include/linux/skbuff.hextern struct sk_buff *    skb_recv_datagram(struct sock *sk,unsigned flags,int noblock, int *err);
sk_buff405include/linux/skbuff.hextern void      skb_copy_datagram(struct sk_buff *from, int offset, char *to,int size);
sk_buff406include/linux/skbuff.hextern void      skb_copy_datagram_iovec(struct sk_buff *from, int offset, struct iovec *to,int size);
sk_buff407include/linux/skbuff.hextern void      skb_free_datagram(struct sk_buff *skb);
sk_buff31include/linux/trdevice.hextern int    tr_header(struct sk_buff *skb, struct device *dev,
sk_buff35include/linux/trdevice.hunsigned long raddr, struct sk_buff *skb);
sk_buff36include/linux/trdevice.hextern unsigned short  tr_type_trans(struct sk_buff *skb, struct device *dev);
sk_buff6include/net/arp.hextern int  arp_rcv(struct sk_buff *skb, struct device *dev,
sk_buff10include/net/arp.hstruct device *dev, u32 saddr, struct sk_buff *skb);
sk_buff168include/net/ax25.hextern int  ax25_send_frame(struct sk_buff *, ax25_address *, ax25_address *, ax25_digi *, struct device *);
sk_buff171include/net/ax25.hextern int  ax25_encapsulate(struct sk_buff *, struct device *, unsigned short,
sk_buff173include/net/ax25.hextern int  ax25_rebuild_header(unsigned char *, struct device *, unsigned long, struct sk_buff *);
sk_buff177include/net/ax25.hextern void ax25_queue_xmit(struct sk_buff *, struct device *, int);
sk_buff183include/net/ax25.hextern int  ax25_process_rx_frame(ax25_cb *, struct sk_buff *, int, int);
sk_buff186include/net/ax25.hextern void ax25_output(ax25_cb *, struct sk_buff *);
sk_buff188include/net/ax25.hextern void ax25_transmit_buffer(ax25_cb *, struct sk_buff *, int);
sk_buff223include/net/ax25.hextern int  ax25_decode(ax25_cb *, struct sk_buff *, int *, int *, int *);
sk_buff9include/net/datalink.hint  (*rcvfunc)(struct sk_buff *, struct device *, 
sk_buff11include/net/datalink.hvoid  (*datalink_header)(struct datalink_proto *, struct sk_buff *,
sk_buff30include/net/icmp.hextern void  icmp_send(struct sk_buff *skb_in,  int type, int code,
sk_buff32include/net/icmp.hextern int  icmp_rcv(struct sk_buff *skb1, struct device *dev,
sk_buff58include/net/ip.hstruct sk_buff  *skb;    /* complete received fragment    */
sk_buff89include/net/ip.hextern int     ip_send(struct rtable *rt, struct sk_buff *skb, __u32 daddr, int len, struct device *dev, __u32 saddr);
sk_buff90include/net/ip.hextern int     ip_build_header(struct sk_buff *skb,
sk_buff96include/net/ip.hextern int    ip_rcv(struct sk_buff *skb, struct device *dev,
sk_buff100include/net/ip.hstruct sk_buff * skb);
sk_buff101include/net/ip.hextern int    ip_options_compile(struct options * opt, struct sk_buff * skb);
sk_buff105include/net/ip.hstruct device *dev, struct sk_buff *skb,
sk_buff129include/net/ip.hstruct sk_buff *ip_defrag(struct iphdr *iph, struct sk_buff *skb, struct device *dev);
sk_buff130include/net/ip.hvoid ip_fragment(struct sock *sk, struct sk_buff *skb, struct device *dev, int is_frag);
sk_buff136include/net/ip.hextern int ip_forward(struct sk_buff *skb, struct device *dev, int is_frag, __u32 target_addr);
sk_buff142include/net/ip.hextern void ip_options_build(struct sk_buff *skb, struct options *opt, __u32 daddr, __u32 saddr, int is_frag);
sk_buff143include/net/ip.hextern int ip_options_echo(struct options *dopt, struct options *sopt, __u32 daddr, __u32 saddr, struct sk_buff *skb);
sk_buff144include/net/ip.hextern void ip_options_fragment(struct sk_buff *skb);
sk_buff145include/net/ip.hextern int ip_options_compile(struct options *opt, struct sk_buff *skb);
sk_buff1include/net/ipip.hextern int ipip_rcv(struct sk_buff *skb, struct device *dev, struct options *opt, 
sk_buff49include/net/ipx.hextern int ipx_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt);
sk_buff10include/net/netlink.hextern int netlink_attach(int unit, int (*function)(struct sk_buff *skb));
sk_buff11include/net/netlink.hextern int netlink_donothing(struct sk_buff *skb);
sk_buff13include/net/netlink.hextern int netlink_post(int unit, struct sk_buff *skb);
sk_buff94include/net/netrom.hextern int  nr_rx_frame(struct sk_buff *, struct device *);
sk_buff98include/net/netrom.hextern int  nr_rx_ip(struct sk_buff *, struct device *);
sk_buff104include/net/netrom.hextern int  nr_process_rx_frame(struct sock *, struct sk_buff *);
sk_buff107include/net/netrom.hextern void nr_output(struct sock *, struct sk_buff *);
sk_buff110include/net/netrom.hextern void nr_transmit_buffer(struct sock *, struct sk_buff *);
sk_buff121include/net/netrom.hextern int  nr_route_frame(struct sk_buff *, ax25_cb *);
sk_buff132include/net/netrom.hextern void nr_transmit_dm(struct sk_buff *);
sk_buff1include/net/p8022.hstruct datalink_proto *register_8022_client(unsigned char type, int (*rcvfunc)(struct sk_buff *, struct device *, struct packet_type *));
sk_buff31include/net/protocol.hint      (*handler)(struct sk_buff *skb, struct device *dev,
sk_buff1include/net/psnap.hstruct datalink_proto *register_snap_client(unsigned char *desc, int (*rcvfunc)(struct sk_buff *, struct device *, struct packet_type *));
sk_buff31include/net/raw.hextern int   raw_rcv(struct sock *, struct sk_buff *, struct device *, 
sk_buff137include/net/sock.hstruct sk_buff    * volatile send_head;
sk_buff138include/net/sock.hstruct sk_buff    * volatile send_tail;
sk_buff140include/net/sock.hstruct sk_buff    *partial;
sk_buff282include/net/sock.hint      (*build_header)(struct sk_buff *skb,
sk_buff292include/net/sock.hstruct device *dev, struct sk_buff *skb,
sk_buff297include/net/sock.hint      (*rcv)(struct sk_buff *buff, struct device *dev,
sk_buff361include/net/sock.hextern struct sk_buff    *sock_wmalloc(struct sock *sk,
sk_buff364include/net/sock.hextern struct sk_buff    *sock_rmalloc(struct sock *sk,
sk_buff368include/net/sock.hstruct sk_buff *skb);
sk_buff370include/net/sock.hstruct sk_buff *skb);
sk_buff381include/net/sock.hextern struct sk_buff     *sock_alloc_send_skb(struct sock *skb,
sk_buff396include/net/sock.hextern __inline__ int sock_queue_rcv_skb(struct sock *sk, struct sk_buff *skb)
sk_buff122include/net/tcp.hextern int  tcp_rcv(struct sk_buff *skb, struct device *dev,
sk_buff143include/net/tcp.hextern void tcp_send_synack(struct sock *, struct sock *, struct sk_buff *);
sk_buff144include/net/tcp.hextern void tcp_send_skb(struct sock *, struct sk_buff *);
sk_buff149include/net/tcp.hextern void tcp_enqueue_partial(struct sk_buff *, struct sock *);
sk_buff150include/net/tcp.hextern struct sk_buff * tcp_dequeue_partial(struct sock *);
sk_buff45include/net/udp.hextern int  udp_rcv(struct sk_buff *skb, struct device *dev,
sk_buff6net/802/llc.cint llc_rx_adm(struct sock *sk,struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff36net/802/llc.cint llc_rx_setup(struct sock *sk, struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff70net/802/llc.cint llc_rx_reset(struct sock *sk, struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff114net/802/llc.cint llc_rx_d_conn(struct sock *sk, struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff150net/802/llc.cint llc_rx_error(struct sock *sk, struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff199net/802/llc.cint llc_rx_nr_shared(struct sock *sk, struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff288net/802/llc.cint llc_rx_normal(struct sock *sk, struct sk_buff *skb, int type, int cmd, int pf, int nr, int ns)
sk_buff30net/802/p8022.cp8022_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff48net/802/p8022.cstruct sk_buff *skb, unsigned char *dest_node)
sk_buff77net/802/p8022.cregister_8022_client(unsigned char type, int (*rcvfunc)(struct sk_buff *, struct device *, struct packet_type *))
sk_buff9net/802/p8023.cstruct sk_buff *skb, unsigned char *dest_node)
sk_buff40net/802/psnap.cint snap_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff75net/802/psnap.cstatic void snap_datalink_header(struct datalink_proto *dl, struct sk_buff *skb, unsigned char *dest_node)
sk_buff96net/802/psnap.cstruct datalink_proto *register_snap_client(unsigned char *desc, int (*rcvfunc)(struct sk_buff *, struct device *, struct packet_type *))
sk_buff41net/802/tr.cint tr_header(struct sk_buff *skb, struct device *dev, unsigned short type,
sk_buff72net/802/tr.cstruct sk_buff *skb) {
sk_buff91net/802/tr.cunsigned short tr_type_trans(struct sk_buff *skb, struct device *dev) {
sk_buff90net/appletalk/aarp.cstruct sk_buff *skb;
sk_buff106net/appletalk/aarp.cstruct sk_buff *skb=alloc_skb(len, GFP_ATOMIC);
sk_buff167net/appletalk/aarp.cstruct sk_buff *skb=alloc_skb(len, GFP_ATOMIC);
sk_buff229net/appletalk/aarp.cstruct sk_buff *skb=alloc_skb(len, GFP_ATOMIC);
sk_buff427net/appletalk/aarp.cint aarp_send_ddp(struct device *dev,struct sk_buff *skb, struct at_addr *sa, void *hwaddr)
sk_buff558net/appletalk/aarp.cstruct sk_buff *skb;
sk_buff597net/appletalk/aarp.cstatic int aarp_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff206net/appletalk/ddp.cstruct sk_buff *skb;
sk_buff1363net/appletalk/ddp.cint atalk_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff1520net/appletalk/ddp.cstruct sk_buff *skb;
sk_buff1655net/appletalk/ddp.cstruct sk_buff *skb2=skb_clone(skb, GFP_KERNEL);
sk_buff1708net/appletalk/ddp.cstruct sk_buff *skb;
sk_buff1782net/appletalk/ddp.cstruct sk_buff *skb;
sk_buff364net/ax25/af_ax25.cstatic void ax25_send_to_raw(struct sock *sk, struct sk_buff *skb, int proto)
sk_buff366net/ax25/af_ax25.cstruct sk_buff *copy;
sk_buff405net/ax25/af_ax25.cstruct sk_buff *skb;
sk_buff629net/ax25/af_ax25.cint ax25_send_frame(struct sk_buff *skb, ax25_address *src, ax25_address *dest,
sk_buff1352net/ax25/af_ax25.cstruct sk_buff *skb;
sk_buff1434net/ax25/af_ax25.cstatic int ax25_rcv(struct sk_buff *skb, struct device *dev, ax25_address *dev_addr, struct packet_type *ptype)
sk_buff1740net/ax25/af_ax25.cstatic int kiss_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *ptype)
sk_buff1758net/ax25/af_ax25.cstatic int bpq_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *ptype)
sk_buff1785net/ax25/af_ax25.cstruct sk_buff *skb;
sk_buff1924net/ax25/af_ax25.cstruct sk_buff *skb;
sk_buff2027net/ax25/af_ax25.cstruct sk_buff *skb;
sk_buff2271net/ax25/af_ax25.cvoid ax25_queue_xmit(struct sk_buff *skb, struct device *dev, int pri)
sk_buff2345net/ax25/af_ax25.cint ax25_encapsulate(struct sk_buff *skb, struct device *dev, unsigned short type, void *daddr,
sk_buff2394net/ax25/af_ax25.cint ax25_rebuild_header(unsigned char *bp, struct device *dev, unsigned long dest, struct sk_buff *skb)
sk_buff60net/ax25/ax25_in.cstatic int ax25_rx_iframe(ax25_cb *, struct sk_buff *);
sk_buff66net/ax25/ax25_in.cstatic int ax25_rx_fragment(ax25_cb *ax25, struct sk_buff *skb)
sk_buff68net/ax25/ax25_in.cstruct sk_buff *skbn, *skbo;
sk_buff132net/ax25/ax25_in.cstatic int ax25_rx_iframe(ax25_cb *ax25, struct sk_buff *skb)
sk_buff184net/ax25/ax25_in.cstatic int ax25_state1_machine(ax25_cb *ax25, struct sk_buff *skb, int frametype, int pf, int type, int dama)
sk_buff259net/ax25/ax25_in.cstatic int ax25_state2_machine(ax25_cb *ax25, struct sk_buff *skb, int frametype, int pf, int type)
sk_buff345net/ax25/ax25_in.cstatic int ax25_state3_machine(ax25_cb *ax25, struct sk_buff *skb, int frametype, int ns, int nr, int pf, int type, int dama)
sk_buff540net/ax25/ax25_in.cstatic int ax25_state4_machine(ax25_cb *ax25, struct sk_buff *skb, int frametype, int ns, int nr, int pf, int type, int dama)
sk_buff789net/ax25/ax25_in.cint ax25_process_rx_frame(ax25_cb *ax25, struct sk_buff *skb, int type, int dama)
sk_buff57net/ax25/ax25_out.cvoid ax25_output(ax25_cb *ax25, struct sk_buff *skb)
sk_buff59net/ax25/ax25_out.cstruct sk_buff *skbn;
sk_buff123net/ax25/ax25_out.cstatic void ax25_send_iframe(ax25_cb *ax25, struct sk_buff *skb, int poll_bit)
sk_buff151net/ax25/ax25_out.cstruct sk_buff *skb, *skbn;
sk_buff218net/ax25/ax25_out.cvoid ax25_transmit_buffer(ax25_cb *ax25, struct sk_buff *skb, int type)
sk_buff60net/ax25/ax25_subr.cstruct sk_buff *skb;
sk_buff88net/ax25/ax25_subr.cstruct sk_buff *skb;
sk_buff111net/ax25/ax25_subr.cstruct sk_buff *skb, *skb_prev = NULL;
sk_buff149net/ax25/ax25_subr.cint ax25_decode(ax25_cb *ax25, struct sk_buff *skb, int *ns, int *nr, int *pf)
sk_buff201net/ax25/ax25_subr.cstruct sk_buff *skb;
sk_buff250net/ax25/ax25_subr.cstruct sk_buff *skb;
sk_buff473net/ax25/ax25_subr.cstruct sk_buff *skb;
sk_buff52net/core/datagram.cstruct sk_buff *skb_recv_datagram(struct sock *sk, unsigned flags, int noblock, int *err)
sk_buff54net/core/datagram.cstruct sk_buff *skb;
sk_buff144net/core/datagram.cvoid skb_free_datagram(struct sk_buff *skb)
sk_buff166net/core/datagram.cvoid skb_copy_datagram(struct sk_buff *skb, int offset, char *to, int size)
sk_buff176net/core/datagram.cvoid skb_copy_datagram_iovec(struct sk_buff *skb, int offset, struct iovec *to, int size)
sk_buff296net/core/dev.cstruct sk_buff *skb;
sk_buff329net/core/dev.cvoid dev_queue_xmit(struct sk_buff *skb, struct device *dev, int pri)
sk_buff419net/core/dev.cstruct sk_buff *skb2;
sk_buff454net/core/dev.cvoid netif_rx(struct sk_buff *skb)
sk_buff555net/core/dev.cstruct sk_buff *skb;
sk_buff622net/core/dev.cstruct sk_buff *skb2=skb_clone(skb, GFP_ATOMIC);
sk_buff639net/core/dev.cstruct sk_buff *skb2;
sk_buff703net/core/dev.cstruct sk_buff *skb;
sk_buff96net/core/firewall.cint call_fw_firewall(int pf, struct sk_buff *skb, void *phdr)
sk_buff114net/core/firewall.cint call_in_firewall(int pf, struct sk_buff *skb, void *phdr)
sk_buff128net/core/firewall.cint call_out_firewall(int pf, struct sk_buff *skb, void *phdr)
sk_buff63net/core/net_alias.cstatic int net_alias_hard_start_xmit(struct sk_buff *skb, struct device *dev);
sk_buff222net/core/net_alias.cnet_alias_hard_start_xmit(struct sk_buff *skb, struct device *dev)
sk_buff79net/core/skbuff.cint skb_check(struct sk_buff *skb, int head, int line, char *file)
sk_buff105net/core/skbuff.cstruct sk_buff *skb2 = skb->next;
sk_buff193net/core/skbuff.clist->prev = (struct sk_buff *)list;
sk_buff194net/core/skbuff.clist->next = (struct sk_buff *)list;
sk_buff203net/core/skbuff.cvoid skb_queue_head(struct sk_buff_head *list_,struct sk_buff *newsk)
sk_buff206net/core/skbuff.cstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff230net/core/skbuff.cvoid skb_queue_tail(struct sk_buff_head *list_, struct sk_buff *newsk)
sk_buff233net/core/skbuff.cstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff260net/core/skbuff.cstruct sk_buff *skb_dequeue(struct sk_buff_head *list_)
sk_buff263net/core/skbuff.cstruct sk_buff *result;
sk_buff264net/core/skbuff.cstruct sk_buff *list = (struct sk_buff *)list_;
sk_buff294net/core/skbuff.cvoid skb_insert(struct sk_buff *old, struct sk_buff *newsk)
sk_buff321net/core/skbuff.cvoid skb_append(struct sk_buff *old, struct sk_buff *newsk)
sk_buff352net/core/skbuff.cvoid skb_unlink(struct sk_buff *skb)
sk_buff381net/core/skbuff.cunsigned char *skb_put(struct sk_buff *skb, int len)
sk_buff393net/core/skbuff.cunsigned char *skb_push(struct sk_buff *skb, int len)
sk_buff404net/core/skbuff.cunsigned char * skb_pull(struct sk_buff *skb, int len)
sk_buff414net/core/skbuff.cint skb_headroom(struct sk_buff *skb)
sk_buff420net/core/skbuff.cint skb_tailroom(struct sk_buff *skb)
sk_buff426net/core/skbuff.cvoid skb_reserve(struct sk_buff *skb, int len)
sk_buff438net/core/skbuff.cvoid skb_trim(struct sk_buff *skb, int len)
sk_buff457net/core/skbuff.cvoid kfree_skb(struct sk_buff *skb, int rw)
sk_buff517net/core/skbuff.cstruct sk_buff *alloc_skb(unsigned int size,int priority)
sk_buff519net/core/skbuff.cstruct sk_buff *skb;
sk_buff535net/core/skbuff.csize+=sizeof(struct sk_buff);  /* And stick the control itself on the end */
sk_buff560net/core/skbuff.cskb=(struct sk_buff *)(bptr+size)-1;
sk_buff599net/core/skbuff.cvoid kfree_skbmem(struct sk_buff *skb)
sk_buff624net/core/skbuff.cstruct sk_buff *skb_clone(struct sk_buff *skb, int priority)
sk_buff626net/core/skbuff.cstruct sk_buff *n;
sk_buff675net/core/skbuff.cstruct sk_buff *skb_copy(struct sk_buff *skb, int priority)
sk_buff677net/core/skbuff.cstruct sk_buff *n;
sk_buff686net/core/skbuff.cn=alloc_skb(skb->truesize-sizeof(struct sk_buff),priority);
sk_buff735net/core/skbuff.cvoid skb_device_lock(struct sk_buff *skb)
sk_buff744net/core/skbuff.cvoid skb_device_unlock(struct sk_buff *skb)
sk_buff753net/core/skbuff.cvoid dev_kfree_skb(struct sk_buff *skb, int mode)
sk_buff771net/core/skbuff.cstruct sk_buff *dev_alloc_skb(unsigned int length)
sk_buff773net/core/skbuff.cstruct sk_buff *skb;
sk_buff781net/core/skbuff.cint skb_device_locked(struct sk_buff *skb)
sk_buff328net/core/sock.cstruct sk_buff *sock_wmalloc(struct sock *sk, unsigned long size, int force, int priority)
sk_buff334net/core/sock.cstruct sk_buff * c = alloc_skb(size, priority);
sk_buff351net/core/sock.cstruct sk_buff *sock_rmalloc(struct sock *sk, unsigned long size, int force, int priority)
sk_buff357net/core/sock.cstruct sk_buff *c = alloc_skb(size, priority);
sk_buff405net/core/sock.cvoid sock_wfree(struct sock *sk, struct sk_buff *skb)
sk_buff426net/core/sock.cvoid sock_rfree(struct sock *sk, struct sk_buff *skb)
sk_buff447net/core/sock.cstruct sk_buff *sock_alloc_send_skb(struct sock *sk, unsigned long size, unsigned long fallback, int noblock, int *errcode)
sk_buff449net/core/sock.cstruct sk_buff *skb;
sk_buff549net/core/sock.cstruct sk_buff *skb;
sk_buff89net/ethernet/eth.cint eth_header(struct sk_buff *skb, struct device *dev, unsigned short type,
sk_buff140net/ethernet/eth.cstruct sk_buff *skb)
sk_buff172net/ethernet/eth.cunsigned short eth_type_trans(struct sk_buff *skb, struct device *dev)
sk_buff265net/ethernet/eth.cvoid eth_copy_and_sum(struct sk_buff *dest, unsigned char *src, int length, int base)
sk_buff9net/ethernet/pe2.cstruct sk_buff *skb, unsigned char *dest_node)
sk_buff289net/ipv4/af_inet.cstruct sk_buff *skb;
sk_buff360net/ipv4/af_inet.cstruct sk_buff *skb2;
sk_buff297net/ipv4/arp.cstruct sk_buff *skb;
sk_buff629net/ipv4/arp.cstruct sk_buff *skb;
sk_buff701net/ipv4/arp.cstruct sk_buff *skb;
sk_buff774net/ipv4/arp.cint arp_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff1182net/ipv4/arp.cu32 saddr, struct sk_buff *skb)
sk_buff1586net/ipv4/arp.cstruct sk_buff * skb;
sk_buff151net/ipv4/icmp.cvoid (*handler)(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr, int len);
sk_buff253net/ipv4/icmp.cvoid icmp_send(struct sk_buff *skb_in, int type, int code, unsigned long info, struct device *dev)
sk_buff339net/ipv4/icmp.cstatic void icmp_unreach(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr, int len)
sk_buff470net/ipv4/icmp.cstatic void icmp_redirect(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 source, __u32 daddr, int len)
sk_buff540net/ipv4/icmp.cstatic void icmp_echo(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr, int len)
sk_buff560net/ipv4/icmp.cstatic void icmp_timestamp(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr, int len)
sk_buff610net/ipv4/icmp.cstatic void icmp_address(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr, int len)
sk_buff627net/ipv4/icmp.cstatic void icmp_discard(struct icmphdr *icmph, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr, int len)
sk_buff636net/ipv4/icmp.cint icmp_rcv(struct sk_buff *skb, struct device *dev, struct options *opt,
sk_buff237net/ipv4/igmp.cstruct sk_buff *skb=alloc_skb(MAX_IGMP_SIZE, GFP_ATOMIC);
sk_buff426net/ipv4/igmp.cint igmp_rcv(struct sk_buff *skb, struct device *dev, struct options *opt,
sk_buff45net/ipv4/ip_forward.cstatic void ip_encap(struct sk_buff *skb, int len, struct device *out, __u32 daddr)
sk_buff86net/ipv4/ip_forward.cint ip_forward(struct sk_buff *skb, struct device *dev, int is_frag,
sk_buff91net/ipv4/ip_forward.cstruct sk_buff *skb2;  /* Output packet */
sk_buff101net/ipv4/ip_forward.cstruct sk_buff *skb_in = skb;  /* So we can remember if the masquerader did some swaps */
sk_buff54net/ipv4/ip_fragment.cextern __inline__ void frag_kfree_skb(struct sk_buff *skb, int type)
sk_buff91net/ipv4/ip_fragment.cstatic struct ipfrag *ip_frag_create(int offset, int end, struct sk_buff *skb, unsigned char *ptr)
sk_buff253net/ipv4/ip_fragment.cstatic struct ipq *ip_create(struct sk_buff *skb, struct iphdr *iph, struct device *dev)
sk_buff341net/ipv4/ip_fragment.cstatic struct sk_buff *ip_glue(struct ipq *qp)
sk_buff343net/ipv4/ip_fragment.cstruct sk_buff *skb;
sk_buff409net/ipv4/ip_fragment.cstruct sk_buff *ip_defrag(struct iphdr *iph, struct sk_buff *skb, struct device *dev)
sk_buff414net/ipv4/ip_fragment.cstruct sk_buff *skb2;
sk_buff618net/ipv4/ip_fragment.cvoid ip_fragment(struct sock *sk, struct sk_buff *skb, struct device *dev, int is_frag)
sk_buff623net/ipv4/ip_fragment.cstruct sk_buff *skb2;
sk_buff603net/ipv4/ip_fw.cstatic struct sk_buff *revamp(struct sk_buff *skb, struct device *dev, struct ip_masq *ftp)
sk_buff607net/ipv4/ip_fw.cstruct sk_buff *skb2;
sk_buff799net/ipv4/ip_fw.cvoid ip_fw_masquerade(struct sk_buff **skb_ptr, struct device *dev)
sk_buff801net/ipv4/ip_fw.cstruct sk_buff  *skb=*skb_ptr;
sk_buff917net/ipv4/ip_fw.cint ip_fw_demasquerade(struct sk_buff *skb_ptr)
sk_buff1585net/ipv4/ip_fw.cint ipfw_input_check(struct firewall_ops *this, int pf, struct sk_buff *skb, void *phdr)
sk_buff1590net/ipv4/ip_fw.cint ipfw_output_check(struct firewall_ops *this, int pf, struct sk_buff *skb, void *phdr)
sk_buff1595net/ipv4/ip_fw.cint ipfw_forward_check(struct firewall_ops *this, int pf, struct sk_buff *skb, void *phdr)
sk_buff198net/ipv4/ip_input.cint ip_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff480net/ipv4/ip_input.cstruct sk_buff *skb1;
sk_buff515net/ipv4/ip_input.cstruct sk_buff *skb2;
sk_buff574net/ipv4/ip_input.cstruct sk_buff *skb2=skb_clone(skb, GFP_ATOMIC);
sk_buff29net/ipv4/ip_options.cvoid ip_options_build(struct sk_buff * skb, struct options * opt,
sk_buff75net/ipv4/ip_options.cstruct sk_buff * skb) 
sk_buff194net/ipv4/ip_options.cvoid ip_options_fragment(struct sk_buff * skb) 
sk_buff234net/ipv4/ip_options.cint ip_options_compile(struct options * opt, struct sk_buff * skb)
sk_buff67net/ipv4/ip_output.cstatic void ip_loopback(struct device *old_dev, struct sk_buff *skb)
sk_buff71net/ipv4/ip_output.cstruct sk_buff *newskb=dev_alloc_skb(len+dev->hard_header_len+15);
sk_buff114net/ipv4/ip_output.cint ip_send(struct rtable * rt, struct sk_buff *skb, __u32 daddr, int len, struct device *dev, __u32 saddr)
sk_buff151net/ipv4/ip_output.cstatic int ip_send_room(struct rtable * rt, struct sk_buff *skb, __u32 daddr, int len, struct device *dev, __u32 saddr)
sk_buff192net/ipv4/ip_output.cint ip_build_header(struct sk_buff *skb, __u32 saddr, __u32 daddr,
sk_buff335net/ipv4/ip_output.cstruct sk_buff *skb, int free)
sk_buff649net/ipv4/ip_output.cstruct sk_buff *skb=sock_alloc_send_skb(sk, length+15+dev->hard_header_len,0, noblock, &error);
sk_buff800net/ipv4/ip_output.cstruct sk_buff * skb;
sk_buff1038net/ipv4/ip_output.cstruct sk_buff *skb=alloc_skb(sizeof(struct netlink_rtinfo), GFP_ATOMIC);
sk_buff52net/ipv4/ipip.cint ipip_rcv(struct sk_buff *skb, struct device *dev, struct options *opt, 
sk_buff99net/ipv4/ipmr.cstruct sk_buff *skb;
sk_buff216net/ipv4/ipmr.cstruct sk_buff *skb;
sk_buff253net/ipv4/ipmr.cstatic void ipmr_cache_report(struct sk_buff *pkt)
sk_buff255net/ipv4/ipmr.cstruct sk_buff *skb=alloc_skb(128, GFP_ATOMIC);
sk_buff296net/ipv4/ipmr.cstatic void ipmr_cache_unresolved(struct mfc_cache *cache, vifi_t vifi, struct sk_buff *skb, int is_frag)
sk_buff702net/ipv4/ipmr.cstatic void ipmr_queue_xmit(struct sk_buff *skb, struct vif_device *vif, struct device *in_dev, int frag)
sk_buff727net/ipv4/ipmr.cvoid ipmr_forward(struct sk_buff *skb, int is_frag)
sk_buff730net/ipv4/ipmr.cstruct sk_buff *skb2;
sk_buff74net/ipv4/packet.cint packet_rcv(struct sk_buff *skb, struct device *dev,  struct packet_type *pt)
sk_buff126net/ipv4/packet.cstruct sk_buff *skb;
sk_buff383net/ipv4/packet.cstruct sk_buff *skb;
sk_buff87net/ipv4/rarp.cstatic int rarp_rcv(struct sk_buff *, struct device *, struct packet_type *);
sk_buff193net/ipv4/rarp.cstatic int rarp_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff119net/ipv4/raw.cint raw_rcv(struct sock *sk, struct sk_buff *skb, struct device *dev, __u32 saddr, __u32 daddr)
sk_buff317net/ipv4/raw.cstruct sk_buff *skb;
sk_buff438net/ipv4/tcp.cstatic struct sk_buff *tcp_find_established(struct sock *s)
sk_buff440net/ipv4/tcp.cstruct sk_buff *p=skb_peek(&s->receive_queue);
sk_buff449net/ipv4/tcp.cwhile(p!=(struct sk_buff *)&s->receive_queue);
sk_buff458net/ipv4/tcp.cstatic struct sk_buff *tcp_dequeue_established(struct sock *s)
sk_buff460net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff479net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff604net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff663net/ipv4/tcp.cwhile(skb != (struct sk_buff *)&sk->receive_queue);
sk_buff852net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff853net/ipv4/tcp.cstruct sk_buff *send_tmp;
sk_buff1210net/ipv4/tcp.cstruct sk_buff *buff;
sk_buff1293net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff1478net/ipv4/tcp.cstruct sk_buff * skb;
sk_buff1512net/ipv4/tcp.cwhile (skb != (struct sk_buff *)&sk->receive_queue);
sk_buff1818net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff1864net/ipv4/tcp.cstruct sk_buff *skb;
sk_buff1921net/ipv4/tcp.cstruct sk_buff *buff;
sk_buff105net/ipv4/tcp_input.cstatic int tcp_reset(struct sock *sk, struct sk_buff *skb)
sk_buff206net/ipv4/tcp_input.cstatic void tcp_conn_request(struct sock *sk, struct sk_buff *skb,
sk_buff508net/ipv4/tcp_input.cstruct sk_buff *skb;
sk_buff509net/ipv4/tcp_input.cstruct sk_buff *skb2;
sk_buff510net/ipv4/tcp_input.cstruct sk_buff *wskb = NULL;
sk_buff682net/ipv4/tcp_input.cstruct sk_buff *oskb;  
sk_buff1023net/ipv4/tcp_input.cstatic int tcp_fin(struct sk_buff *skb, struct sock *sk, struct tcphdr *th)
sk_buff1110net/ipv4/tcp_input.cstatic int tcp_data(struct sk_buff *skb, struct sock *sk, 
sk_buff1113net/ipv4/tcp_input.cstruct sk_buff *skb1, *skb2;
sk_buff1304net/ipv4/tcp_input.cskb2 != (struct sk_buff *)&sk->receive_queue;
sk_buff1494net/ipv4/tcp_input.cint tcp_rcv(struct sk_buff *skb, struct device *dev, struct options *opt,
sk_buff31net/ipv4/tcp_output.cvoid tcp_send_skb(struct sock *sk, struct sk_buff *skb)
sk_buff155net/ipv4/tcp_output.cstruct sk_buff * tcp_dequeue_partial(struct sock * sk)
sk_buff157net/ipv4/tcp_output.cstruct sk_buff * skb;
sk_buff177net/ipv4/tcp_output.cstruct sk_buff *skb;
sk_buff189net/ipv4/tcp_output.cvoid tcp_enqueue_partial(struct sk_buff * skb, struct sock * sk)
sk_buff191net/ipv4/tcp_output.cstruct sk_buff * tmp;
sk_buff221net/ipv4/tcp_output.cstruct sk_buff *skb;
sk_buff322net/ipv4/tcp_output.cstruct sk_buff * skb;
sk_buff502net/ipv4/tcp_output.cstruct sk_buff *buff;
sk_buff587net/ipv4/tcp_output.cstruct sk_buff *buff;
sk_buff680net/ipv4/tcp_output.cvoid tcp_send_synack(struct sock * newsk, struct sock * sk, struct sk_buff * skb)
sk_buff684net/ipv4/tcp_output.cstruct sk_buff * buff;
sk_buff783net/ipv4/tcp_output.cstruct sk_buff *buff;
sk_buff894net/ipv4/tcp_output.cstruct sk_buff *buff,*skb;
sk_buff230net/ipv4/tcp_timer.cstruct sk_buff *skb;
sk_buff138net/ipv4/udp.cstatic int udp_deliver(struct sock *sk, struct udphdr *uh, struct sk_buff *skb, struct device *dev, long saddr, long daddr, int len);
sk_buff465net/ipv4/udp.cstruct sk_buff *skb;
sk_buff504net/ipv4/udp.cstruct sk_buff *skb;
sk_buff594net/ipv4/udp.cint udp_rcv(struct sk_buff *skb, struct device *dev, struct options *opt,
sk_buff673net/ipv4/udp.cstruct sk_buff *skb1;
sk_buff721net/ipv4/udp.cstatic int udp_deliver(struct sock *sk, struct udphdr *uh, struct sk_buff *skb, struct device *dev, long saddr, long daddr, int len)
sk_buff180net/ipx/af_ipx.cstruct sk_buff  *skb;
sk_buff348net/ipx/af_ipx.cstatic int ipxitf_def_skb_handler(struct sock *sock, struct sk_buff *skb)
sk_buff369net/ipx/af_ipx.cipxitf_demux_socket(ipx_interface *intrfc, struct sk_buff *skb, int copy) 
sk_buff387net/ipx/af_ipx.cstruct sk_buff *skb1;
sk_buff433net/ipx/af_ipx.cipxitf_demux_socket(ipx_interface *intrfc, struct sk_buff *skb, int copy) 
sk_buff437net/ipx/af_ipx.cstruct sk_buff  *skb1 = NULL, *skb2 = NULL;
sk_buff530net/ipx/af_ipx.cstatic struct sk_buff *
sk_buff531net/ipx/af_ipx.cipxitf_adjust_skbuff(ipx_interface *intrfc, struct sk_buff *skb)
sk_buff533net/ipx/af_ipx.cstruct sk_buff  *skb2;
sk_buff558net/ipx/af_ipx.cstatic int ipxitf_send(ipx_interface *intrfc, struct sk_buff *skb, char *node)
sk_buff692net/ipx/af_ipx.cstatic int ipxrtr_route_skb(struct sk_buff *);
sk_buff694net/ipx/af_ipx.cstatic int ipxitf_rcv(ipx_interface *intrfc, struct sk_buff *skb)
sk_buff1158net/ipx/af_ipx.cstruct sk_buff *skb;
sk_buff1238net/ipx/af_ipx.cipxrtr_route_skb(struct sk_buff *skb)
sk_buff1922net/ipx/af_ipx.cint ipx_rcv(struct sk_buff *skb, struct device *dev, struct packet_type *pt)
sk_buff2023net/ipx/af_ipx.cstruct sk_buff *skb;
sk_buff2088net/ipx/af_ipx.cstruct sk_buff *skb;
sk_buff33net/netlink.cstatic int (*netlink_handler[MAX_LINKS])(struct sk_buff *skb);
sk_buff49net/netlink.cstatic int netlink_err(struct sk_buff *skb)
sk_buff60net/netlink.cint netlink_donothing(struct sk_buff *skb)
sk_buff73net/netlink.cstruct sk_buff *skb;
sk_buff87net/netlink.cstruct sk_buff *skb;
sk_buff177net/netlink.cint netlink_attach(int unit, int (*function)(struct sk_buff *skb))
sk_buff194net/netlink.cint netlink_post(int unit, struct sk_buff *skb)
sk_buff240net/netrom/af_netrom.cstruct sk_buff *skb;
sk_buff821net/netrom/af_netrom.cstruct sk_buff *skb;
sk_buff894net/netrom/af_netrom.cint nr_rx_frame(struct sk_buff *skb, struct device *dev)
sk_buff1017net/netrom/af_netrom.cstruct sk_buff *skb;
sk_buff1120net/netrom/af_netrom.cstruct sk_buff *skb;
sk_buff1194net/netrom/af_netrom.cstruct sk_buff *skb;
sk_buff54net/netrom/nr_dev.cint nr_rx_ip(struct sk_buff *skb, struct device *dev)
sk_buff76net/netrom/nr_dev.cstatic int nr_header(struct sk_buff *skb, struct device *dev, unsigned short type,
sk_buff109net/netrom/nr_dev.cunsigned long raddr, struct sk_buff *skb)
sk_buff166net/netrom/nr_dev.cstatic int nr_xmit(struct sk_buff *skb, struct device *dev)
sk_buff53net/netrom/nr_in.cstatic int nr_queue_rx_frame(struct sock *sk, struct sk_buff *skb, int more)
sk_buff55net/netrom/nr_in.cstruct sk_buff *skbo, *skbn = skb;
sk_buff97net/netrom/nr_in.cstatic int nr_state1_machine(struct sock *sk, struct sk_buff *skb, int frametype)
sk_buff143net/netrom/nr_in.cstatic int nr_state2_machine(struct sock *sk, struct sk_buff *skb, int frametype)
sk_buff171net/netrom/nr_in.cstatic int nr_state3_machine(struct sock *sk, struct sk_buff *skb, int frametype)
sk_buff174net/netrom/nr_in.cstruct sk_buff *skbn;
sk_buff310net/netrom/nr_in.cint nr_process_rx_frame(struct sock *sk, struct sk_buff *skb)
sk_buff49net/netrom/nr_out.cvoid nr_output(struct sock *sk, struct sk_buff *skb)
sk_buff51net/netrom/nr_out.cstruct sk_buff *skbn;
sk_buff104net/netrom/nr_out.cstatic void nr_send_iframe(struct sock *sk, struct sk_buff *skb)
sk_buff120net/netrom/nr_out.cstruct sk_buff *skb, *skbn;
sk_buff143net/netrom/nr_out.cstruct sk_buff *skb, *skbn;
sk_buff202net/netrom/nr_out.cvoid nr_transmit_buffer(struct sock *sk, struct sk_buff *skb)
sk_buff651net/netrom/nr_route.cint nr_route_frame(struct sk_buff *skb, ax25_cb *ax25)
sk_buff49net/netrom/nr_subr.cstruct sk_buff *skb;
sk_buff79net/netrom/nr_subr.cstruct sk_buff *skb;
sk_buff102net/netrom/nr_subr.cstruct sk_buff *skb, *skb_prev = NULL;
sk_buff153net/netrom/nr_subr.cstruct sk_buff *skb;
sk_buff246net/netrom/nr_subr.cvoid nr_transmit_dm(struct sk_buff *skb)
sk_buff248net/netrom/nr_subr.cstruct sk_buff *skbn;
sk_buff167net/unix/af_unix.cstruct sk_buff *skb;
sk_buff456net/unix/af_unix.cstruct sk_buff *skb;
sk_buff600net/unix/af_unix.cstruct sk_buff *skb;
sk_buff686net/unix/af_unix.cstruct sk_buff *skb;
sk_buff725net/unix/af_unix.cif(size>(sk->sndbuf-sizeof(struct sk_buff))/2)  /* Keep two messages in the pipe so it schedules better */
sk_buff729net/unix/af_unix.csize=(sk->sndbuf-sizeof(struct sk_buff))/2;
sk_buff822net/unix/af_unix.cstruct sk_buff *skb;
sk_buff958net/unix/af_unix.cstruct sk_buff *skb;